MondialNews

“Economiser 12 000 milliards grâce au renouvelable, c’est possible !” : les calculs fous de Doyne J. Farmer

Portrait de Doyne J. Farmer, professeur à l'université d'Oxford.




C’est l’histoire d’un jeune garçon de Silver City (Nouveau-Mexique) qui, du haut de ses vingt-quatre ans, réussit à déjouer le hasard des casinos de Las Vegas avant de passer dix années au laboratoire du physicien Robert Oppenheimer à Los Alamos, de s’imposer à Wall Street, et qui s’apprête aujourd’hui à révolutionner l’économie. Cette histoire, au croisement de The Social Network et Un homme d’exception, n’a rien d’un film (mais pourrait bien inspirer les grands d’Hollywood). C’est celle de Doyne J. Farmer, aujourd’hui professeur en science des systèmes complexes de la prestigieuse université d’Oxford, qui publie Making Sense of Chaos, un ouvrage (non-traduit) classé par le Financial Times parmi les meilleurs nouveaux livres économiques en 2024. La vision de l’auteur, dont le magazine britannique prédit qu’elle “sera sans aucun doute déterminante pour l’évolution de l’économie”, est la suivante : la théorie économique traditionnelle, dont les prédictions reposent sur certains piliers telle la rationalité des individus, serait aujourd’hui trop limitée pour répondre aux enjeux que pose notre époque. Difficulté que l’économie de la complexité – un champ d’étude reposant sur un mélange de jugement humain, de données très précises et de puissance informatique – dont Farmer est spécialiste, serait en mesure de contourner.L’histoire de cette conviction mérite d’être racontée par le début : dans le rouge saturé d’une salle de jeux de Las Vegas, en 1976. Là où Farmer a réalisé avec un groupe d’amis son premier fait d’armes, à savoir battre le très aléatoire jeu de la roulette à l’aide d’un micro-ordinateur portable mis au point par leurs soins (un exploit en soi) dissimulé dans une chaussure. “Cette expérience a véritablement forgé ma vision de l’économie sur le plan métaphorique : la qualité d’une prédiction dépend de la précision des informations recueillies pour y parvenir, raconte-t-il à L’Express. […] Mais entre nous, les sociétés de trading sont de bien meilleurs casinos. Vous ne risquez pas de vous faire jeter dehors si vous gagnez trop (rires).” L’incise n’est pas choisie au hasard : avec la Prediction Company, qu’il a cofondée avec son ami d’enfance Norman Packard en 1991, Doyne Farmer a réalisé des gains hors normes grâce aux principes de… l’économie de la complexité ! La même qui l’a conduit à réaliser en 2020 la prédiction la plus précise réalisée concernant l’impact de la pandémie de Covid-19 sur le PIB britannique, devant celle de la banque d’Angleterre.Cinq ans plus tard, Doyne Farmer livre une réflexion décapante sur les lacunes de l’économie traditionnelle, mais surtout les bénéfices que pourrait réaliser sa discipline dans de nombreux domaines. Auprès de L’Express, ce spécialiste remonte le temps pour expliquer comment, grâce à sa matière, nous aurions pu “voir venir la bulle immobilière” responsable de la crise des subprimes de 2008. Doyne Farmer revient également sur l’une de ses prédictions les plus surprenantes, qui concerne la lutte contre le changement climatique. Et qui pourrait nous faire économiser beaucoup d’argent. Entretien.L’Express : Au début de votre ouvrage, vous revenez sur une expérience qui a eu un impact majeur sur votre trajectoire vers l’économie de la complexité. Encore étudiant, vous avez réussi à battre le hasard du jeu de la roulette d’un casino avec un groupe d’amis. Ce qui vous a d’ailleurs valu une mention dans le documentaire Breaking Vegas (2004, History Channel), mais aussi au sein du prestigieux Heinz Nixdorf Museums Forum. Quel était le rapport avec l’économie de la complexité ?Doyne J. Farmer : En fait, c’était purement de la physique, car il s’agissait de calculer la vitesse de la balle et du rotor pour en déduire la position d’arrivée la plus probable de la balle. À l’époque, nous avions mis au point ce qui s’est avéré être le premier ordinateur portable, dissimulé dans une première version sous une aisselle, puis dans une chaussure. Nous savions qu’il s’écoulait en moyenne 15 secondes entre le moment où le croupier jetait la balle sur la roue et celui où il fermait les paris. Une première personne, souvent moi, était chargée d’envoyer des signaux au bon moment à l’ordinateur en appuyant sur des interrupteurs à l’aide de mon gros orteil pour que la machine puisse ensuite résoudre l’équation. Puis une deuxième personne, à qui le résultat obtenu par la machine était ensuite transmis, plaçait les paris. De la physique, donc, mais cette expérience a véritablement forgé ma vision de l’économie sur le plan métaphorique : la qualité d’une prédiction dépend de la précision des informations recueillies pour y parvenir. Nous avons toujours battu la maison. Mais entre nous, les sociétés de trading sont de bien meilleurs casinos. Vous ne risquez pas de vous faire jeter dehors si vous gagnez trop (rires). C’est pourquoi, quelques années plus tard, j’ai créé avec mon ami d’enfance Norman Packard la Prediction Company, avec laquelle nous avons fait du trading pour des banques pendant plus de dix ans en nous fondant sur les principes de l’économie de la complexité [NDLR : l’entreprise a été revendue à la banque suisse UBS pour 100 millions de dollars en 2005].Selon vous, la science économique dans son ensemble aurait besoin d’une mise à jour radicale basée sur l’économie de la complexité. Pourquoi cela ?Je ne prétends pas qu’il faille complètement se débarrasser de l’économie traditionnelle telle que nous la connaissons. Mais je soutiens qu’au vu des défis que pose notre époque, ses capacités sont restreintes. De fait, lors de grandes crises telle celle des subprimes de 2008 ou la pandémie de Covid-19, nos modèles économiques classiques ont souvent échoué à donner des orientations efficaces aux politiciens. Non pas parce que les économistes sont particulièrement mauvais, mais parce que le modèle standard sur lequel reposent toutes nos théories économiques est limité.Je m’explique : la théorie économique standard repose sur trois piliers, la maximisation de l’utilité, l’équilibre, et la rationalité des individus. En bref, les économistes partent du principe que chaque individu a des préférences – ce que l’on appelle l’utilité – et que, sur la base de ces préférences, il va faire des choix selon la logique du “plus, c’est mieux”. C’est la maximisation de l’utilité. Par exemple, les ménages aiment consommer le plus possible. Les entreprises, quant à elles, veulent faire le plus de bénéfices possibles. Quel que soit le cas de figure, la théorie économique suppose que les individus prendront les meilleures décisions possibles pour maximiser leur utilité – que ce soit en termes de consommation ou de profits. Enfin, dernière assomption, une décision ou transaction ne pourrait avoir lieu que lorsqu’il y a équilibre, c’est-à-dire que l’offre est égale à la demande.Le problème de cette approche est que la réalité est souvent beaucoup plus compliquée. Par exemple, tout le monde ne prend pas toujours la décision la plus rationnelle. Même s’il est bien connu qu’un long trajet pour aller au travail rend malheureux et que l’argent ne fait pas forcément le bonheur, nous sommes nombreux à choisir de prendre un emploi loin de notre domicile car nous estimons que nous serons mieux payés et donc plus heureux. Les gens prennent donc souvent des décisions qui vont à l’encontre de la rationalité. L’économie de la complexité, justement, permet de prendre en compte ce type de situation. A la différence de la théorie classique, nous cherchons à comprendre comment les gens prennent vraiment leurs décisions dans le monde réel, en tenant compte d’un maximum de paramètres susceptibles de peser dans la balance pour anticiper les effets de ces choix.Mais comment déterminez-vous les paramètres à prendre en compte ? On imagine une infinité de possibilités…Forcément, cela requiert une certaine part de jugement, mais aussi la puissance des ordinateurs, car il faut intégrer de nombreux paramètres. Il s’agit de sélectionner et compiler des données empiriques qui vont nous permettre de déterminer avec précision comment les individus interagissent et comment ils prennent leurs décisions. Sans présumer, j’insiste, qu’ils feront forcément le meilleur choix possible pour y parvenir. Pour cela, nous allons parler à ceux qui seront amenés à prendre ces décisions – par exemple, un certain type de ménages – mais aussi interroger des psychologues pour comprendre l’impact de tel ou tel environnement sur le choix des individus, ou encore collecter des données démographiques auprès des organismes compétents pour tenir compte du niveau de richesse, de l’âge, de la géographie… Une fois toutes ces informations agrégées au sein d’un programme informatique, nous allons procéder à des simulations pour voir comment les “agents” que nous étudions pourraient réagir à tel ou tel événement. Et le programme tourne, encore et encore, comme une boucle. Les agents prennent des décisions, celles-ci ont un impact sur l’économie, laquelle peut donc générer de nouvelles informations, et ainsi de suite. Comme vous le voyez, cette approche est beaucoup plus souple et adaptée à la réalité que la théorie traditionnelle.En 2008, les économistes ont été contraints de simplifier la réalité pour résoudre leurs équationsDans votre ouvrage, vous donnez à voir les progrès que pourrait accomplir l’économie avec cette méthode en faisant l’analogie avec les prévisions météorologiques…Oui, car l’évolution des prévisions en la matière est tout simplement fascinante ! Jusqu’en 1980, celles-ci étaient établies en étudiant des situations météorologiques passées similaires à ce qui était observé dans le présent, avec une grande part de subjectivité et l’application de quelques règles empiriques. Le problème, là aussi, n’était pas que les prévisionnistes étaient mauvais. Mais que leur méthode était intrinsèquement limitée. Puis John Von Neumann, le père des ordinateurs, a mis au point un modèle de prévision numérique, dont la pertinence dépendait de la puissance informatique, de la précision et de la granularité des mesures météorologiques incorporées dans les simulations. En somme, la plus-value de son modèle tenait au fait qu’il partait d’informations détaillées pour en déduire une tendance globale. Ce n’était pas le cas jusqu’alors.Pour faire des prévisions économiques pertinentes, nous devons faire quelque chose de similaire. De la même façon que les météorologues prennent aujourd’hui en compte un grand nombre de mesures différentes pour déterminer le temps qu’il fait dans les Rocheuses américaines ou dans les Alpes, les économistes doivent commencer par prendre des mesures économiques approfondies et granulaires pour faire des prévisions réalistes.Mais je fais aussi cette analogie pour une deuxième raison : il a fallu plus de trente ans pour que la méthode de Von Neumann ne modifie drastiquement la qualité des prévisions météo. Mais lorsqu’elle s’est imposée, elle a tout changé car celle-ci nous donne une meilleure capacité de planification, ce qui présente d’énormes avantages économiques pour l’aviation, le transport maritime, la gestion des ouragans et bien d’autres activités humaines. Aujourd’hui, il existe même une sorte de “loi de Moore” pour les prévisions météorologiques qui dit que tous les dix ans, les prévisions météorologiques pour un nombre donné de jours deviennent aussi bonnes qu’il y a dix ans pour un jour de moins. C’est-à-dire que les prévisions à cinq jours sont aujourd’hui aussi bonnes que les prévisions à quatre jours d’il y a dix ans. Pour que l’économie de la complexité devienne la référence, je ne pense pas qu’il faudra 30 ans, mais probablement 5 à 10 ans. Mais il y a urgence, car les crises qui affectent le monde sont de plus en plus complexes. Il faut donc y répondre avec une méthode prenant en compte cette complexité.Un exemple de crise complexe est celle des subprimes de 2008. A l’époque, même les modèles macroéconomiques les plus sophistiqués des banques centrales avaient échoué à l’anticiper. A ce jour, de nombreux économistes débattent d’ailleurs encore de ses causes. Mais selon vous, l’économie de la complexité aurait pu permettre d’y voir plus clair…En effet. En 2008, la situation était d’une telle complexité qu’elle demandait de prendre en compte de nombreux facteurs. Ce qu’un modèle classique ne peut pas faire. A l’époque, les économistes ont donc été contraints de simplifier la réalité pour résoudre leurs équations. C’est pourquoi, comme me l’a raconté Simon Potter, l’ancien directeur de la recherche économique à la Fed de New York, lorsque la Fed a tenté de vérifier ce qui se produirait en cas de chute de 20 % des prix de l’immobilier, ses modèles ont conclu que cela ne représenterait pas grand-chose… Et puis la crise est arrivée et la bulle immobilière a éclaté. Dans mon livre, je cite l’ex-président de la Banque centrale européenne, Jean-Claude Trichet, qui, à l’époque, avait admis s’être senti “abandonné par les outils [économiques] traditionnels”. Je pense qu’il avait raison. En fait, hormis quelques voix dans le désert, personne ou presque n’avait anticipé la possibilité que les propriétaires et les entreprises fassent défaut sur les emprunts qu’ils avaient contractés.J’en arrive donc à l’économie de la complexité. Peu après la crise financière de 2008, mon équipe a construit un modèle du marché immobilier de Washington reposant sur la simulation de l’achat et de la vente de maisons, que les agents immobiliers et les banques aient décidé d’accorder ou non des prêts aux ménages. Nous avons intégré une série d’informations détaillées provenant des autorités fiscales et du recensement américain, sur les transactions, les prêts, le type de maison – luxueuse ou non – les ménages, etc. Cela nous a permis d’effectuer des simulations basées sur différents scénarios. Lorsque la politique de remboursement de prêt était trop laxiste, nous obtenions la formation d’une bulle financière. Mais quand celle-ci était plus stricte, nous évitions la crise. Alors oui, on aurait pu voir venir la bulle immobilière.Quelques personnes ont tout de même perçu les dangers d’un éventuel effondrement du marché immobilier…Oui, mais personne n’a vu la crise financière mondiale qu’il provoquerait. Le problème était que les institutions financières du monde entier détenaient toutes des titres adossés à des créances hypothécaires américaines, qui étaient considérés comme un investissement sûr et rentable. Lorsque le marché immobilier s’est effondré, la valeur des titres adossés à des créances hypothécaires a chuté, ce qui a mis à mal les bilans de toutes les grandes banques et a eu pour effet de tarir les prêts et de paralyser l’économie. Il s’agissait d’un problème systémique, du type de ceux que les modèles traditionnels ont du mal à traiter, mais que les modèles de l’économie de la complexité traitent facilement. Si nous avions disposé de tels modèles, je pense que nous aurions pu prévoir ce qui allait arriver, ce qui aurait peut-être permis d’éviter que les choses ne se passent aussi mal.Pendant la pandémie de Covid, vous avez développé un modèle pour le gouvernement britannique et prédit avec succès le coût économique pour le PIB et l’impact sur l’économie. A savoir un impact de 21,5 % du PIB au deuxième trimestre 2020 – contre 22,1 %, ce qui s’est finalement produit. Vos prévisions étaient meilleures que celles de la Banque d’Angleterre…C’est un bon exemple de ce que je vous disais plus tôt : alors que l’approche traditionnelle repose sur l’idée que l’économie revient toujours à l’équilibre, ici, le choc a été si rapide et brutal que cette hypothèse a volé en éclat. Alors comment s’y est-on pris ? Le défi était de prendre en compte toute l’hétérogénéité des chocs provoqués par la propagation de la maladie dans les différents secteurs et la manière dont ils allaient interagir entre eux. En fait, nous avons trouvé un tableau indiquant la distance qui sépare les employés les uns des autres dans chaque profession répertoriée. Puis, nous avons supposé que si les personnes étaient éloignées de moins de deux mètres, elles ne pourraient pas se rendre au travail. Après avoir intégré d’autres hypothèses de ce type, nous avons pu prédire avec précision l’ampleur du choc initial dans chaque secteur.Notre modèle de prévision de la propagation du choc dans l’économie était alors très simple : industrie par industrie, nous nous sommes demandé si chacune disposait de la main-d’œuvre nécessaire, des intrants essentiels à la production de l’industrie et de la demande pour cette production. Par exemple, s’il s’agissait d’une entreprise de l’industrie sidérurgique, il fallait s’assurer que les matériaux nécessaires, le fer, l’énergie, le charbon, seraient disponibles. Mais nous ne nous préoccupions pas des intrants optionnels, comme les consultants en management.De plus, nous avons eu la chance de disposer d’une estimation de l’Office of Management and Budget des États-Unis concernant l’impact d’une pandémie de grippe sur la demande de biens, qui s’est avérée être une bonne estimation de ce qui s’est passé dans le cadre du Covid. Jour après jour, nous avons ainsi vérifié si chaque secteur avait de la main-d’œuvre, des intrants et de la demande ; comme la plupart des secteurs produisent des biens qui sont des intrants pour d’autres secteurs, cela nous a permis de suivre la façon dont les chocs circulaient dans l’économie et interagissaient les uns avec les autres. C’est ce qui nous a permis de faire des prévisions précises dès le début de la pandémie.L’une de vos prédictions les plus surprenantes concerne la lutte contre le changement climatique. Selon vous, d’ici à peine trente ans, nous pourrions être passés à une énergie presque exclusivement verte, sans émissions de carbone. Et ce, en économisant de l’argent. Vous allez en étonner plus d’un…Tout le monde s’accorde sur un point : pour lutter efficacement contre le changement climatique, il va nous falloir changer la façon dont nous produisons de l’énergie. Ce qui implique d’identifier et d’investir dans les technologies qui pourraient remplacer le plus rapidement possible les combustibles fossiles et ce, à moindre coût, pour faire la transition énergétique le plus tôt et le moins cher possible. Ironiquement, l’une des méthodes que mon équipe et moi-même avons utilisée pour répondre à ce problème relève davantage du bon sens que de l’économie de la complexité. A savoir examiner le déploiement et le coût des transitions technologiques passées, des téléphones fixes aux téléphones portables, des canaux aux chemins de fer… Ainsi, une tendance s’est dégagée : plus une technologie est produite, plus elle s’améliore, et plus ses coûts baissent de x pour cent. Le pourcentage dépendant de la technologie en question.Il devient nécessaire d’effectuer un changement radical. Je dirais même une révolution. Sans quoi nous continuerons d’être à la peine malgré les défis majeurs qui se posent aujourd’hui.Partant de là, nous avons ensuite observé l’évolution de la production – donc l’amélioration – de différentes sources d’énergie au fil du temps. Et voilà ce que nous avons constaté : contrairement aux combustibles fossiles ou l’énergie nucléaire, l’énergie solaire, elle, s’améliore très rapidement avec le temps. Ainsi, alors que le coût des combustibles fossiles tels que le pétrole, le charbon et le gaz est resté relativement constant depuis plus d’un siècle, le coût de l’électricité solaire photovoltaïque, qui était très élevé lors de sa première utilisation en 1958, a été divisé par plus de 10 000 depuis lors. Plus généralement, le coût de l’énergie solaire et des batteries a baissé de manière exponentielle, à raison de 10 % chaque année… Celui de l’énergie éolienne un peu moins vite – plutôt 6 % par an – mais à la différence des combustibles fossiles, leur prix baisse pour tous. Même s’il peut y avoir des variations, lorsqu’une technologie amorce une tendance exponentielle, elle la poursuit généralement. A partir de là, il est possible de classer les technologies et voir ce qu’elles devraient coûter à l’avenir. Et permettez-moi de vous dire que l’un des principaux enseignements de nos recherches en la matière est que le coût du renouvelable pourrait bien être bien moins élevé, à l’avenir, que ce que certains imaginent…Vous avez justement testé trois scénarios…Tout à fait. Le premier est celui d’une transition rapide où nous maintiendrions pendant dix ans le rythme exponentiel actuel de déploiement des énergies renouvelables. Les coûts chuteraient donc très rapidement, les capacités de stockage seraient de plus en plus importantes, de sorte que le renouvelable remplacerait les combustibles fossiles d’ici 20 ans. Le second est celui d’une transition lente où nous ralentirions le déploiement des énergies renouvelables. Leurs coûts continueraient à être plus élevés que celui des énergies fossiles pendant plus longtemps, si bien que ces dernières continueraient à avoir le dessus durablement. En outre, nous avons aussi mis au point un scénario où il n’y aurait pas de transition, c’est-à-dire que les proportions de chaque énergie resteraient les mêmes, avec une croissance constante de 2 % de chaque source d’énergie (le taux auquel l’utilisation d’une énergie a augmenté pendant de nombreuses années dans le monde). Lorsque nous appliquons nos méthodes de prévision des coûts à ces trois scénarios, cela donne quelque chose de surprenant : là où le monde fait le plus d’économies, c’est dans le scénario d’une transition rapide. En clair : notre approvisionnement énergétique se ferait presque exclusivement sans émissions de carbone, et d’ici vingt-cinq ans, les coûts de ces énergies, donc du solaire, de l’éolien, seraient moins chers que jamais. Pour vous donner un ordre d’idée, si nous faisions la transition rapide, nous économiserions… 12 000 milliards de dollars par rapport à une absence de transition.Dans votre ouvrage, vous vous montrez optimiste quant à la capacité de votre modèle à réduire les inégalités dans le monde… Ambitieux !J’ai de bonnes raisons de croire que l’économie de la complexité peut nous permettre de mieux appréhender les effets secondaires générés par certaines politiques. Car à la différence des modèles classiques qui, je le rappelle, partent du principe que chacun maximise son utilité donc considère au fond qu’il n’y a que des gagnants, nous partons du principe qu’un système économique peut aussi produire des perdants. Je vous donne un exemple : lorsque des banques centrales vont acheter des obligations pour contrôler les taux d’intérêt, cela peut effectivement permettre d’atteindre des objectifs macroéconomiques, donc stimuler l’économie. Mais si nos modèles classiques sont capables d’appréhender ce type d’équations, ils vont cependant peiner à prendre en compte les effets secondaires indésirables qui en découlent, par exemple le fait que si vous abaissez les taux d’intérêt, vous stimulez le marché boursier mais cela ne change rien pour les pauvres. Cela accroît donc les inégalités et aggrave la situation d’une partie de la population.Avec l’économie de la complexité, cependant, nous pourrions prendre en compte les implications d’une politique pour toutes les composantes d’une société. En particulier, en utilisant ce que nous appelons des populations de ménages synthétiques, c’est-à-dire des populations d’individus artificiels qui ne représentent pas des personnes spécifiques, mais qui correspondent néanmoins à toutes les caractéristiques de la population, comme l’âge, l’éducation, la géographie, etc. Cela nous permettrait de saisir toute l’hétérogénéité des ménages réels, dont le revenu et la richesse peuvent changer au fil du temps. En utilisant des populations synthétiques, nous pouvons alors comprendre précisément qui seront les gagnants et qui seront les perdants, et ainsi évaluer qui seront les gagnants et les perdants de toute nouvelle politique.Si les avantages de votre approche sont si nombreux, on a bien du mal à comprendre pourquoi les économistes rechignent à l’adopter…L’une des critiques récurrentes, de la part des économistes traditionnels, consiste à dire que si l’économie de la complexité était si révolutionnaire, elle aurait déjà submergé la discipline dès sa naissance dans les années 1960, sous l’impulsion de Herbert Simon. Ce que je réponds souvent à cet argument tient en deux choses : d’une part, les ordinateurs sont un milliard de fois plus puissants qu’ils ne l’étaient du temps de l’économiste – et prix Nobel – Herbert Simon. Aujourd’hui, nos machines nous permettent de collecter une quantité de données et de les sauvegarder comme jamais par le passé. Et d’autre part, les ressources consacrées à l’approche traditionnelle sont 500 ou 1000 fois supérieures à ce qu’elles sont pour l’économie de la complexité. Sans parler du fait que ceux qui pratiquent cette méthode sont mis à l’écart par le courant économique dominant, donc ils peinent à trouver des postes intéressants pour appliquer leurs compétences. Pour voir de véritables bénéfices, on ne pourra pas se contenter d’un petit groupe travaillant sur un coin de table sans budget, et s’attendre à ce qu’ils révolutionnent l’économie tout en étant en concurrence avec 40 000 économistes traditionnels dans le reste du monde.Mais en toute honnêteté, les banques centrales et les décideurs de premier plan sont plus ouverts à cette approche que ne le sont les personnes qui siègent dans les départements d’économie des universités, en particulier aux Etats-Unis, qui dominent totalement le champ de l’économie. C’est l’une des raisons pour lesquelles je suis en Europe. En Allemagne, en Italie, en France et au Royaume-Uni, il existe au moins quelques départements où l’économie de la complexité est prise au sérieux. Ce qui n’est pas le cas aux Etats-Unis. Alors pourquoi certains sont-ils encore réfractaires ? Je crois, tout simplement, que la plupart des économistes construisent des modèles économiques de la seule façon qu’ils connaissent. Au fond, je le comprends, car il s’agirait d’abandonner des principes qui sont fermement ancrés dans l’économie depuis plus d’un siècle. Il s’agit donc d’un immense choc culturel. Mais même si j’entends cette réticence, il devient nécessaire d’effectuer un changement radical. Je dirais même une révolution. Sans quoi nous continuerons d’être à la peine malgré les défis majeurs qui se posent aujourd’hui.



Source link : https://www.lexpress.fr/idees-et-debats/economiser-12-000-milliards-grace-au-renouvelable-cest-possible-les-calculs-fous-de-doyne-j-farmer-SKBYC5MOLZHFDKJHYNGIEKQ2GA/

Author : Alix L’Hospital

Publish date : 2025-01-12 08:00:00

Copyright for syndicated content belongs to the linked Source.

Exit mobile version