Institut de Recherches Economiques et Fiscales

Faire un don

Nos ressources proviennent uniquement des dons privés !

anglais
Accueil » Science du climat : faiblesses et manquements

Science du climat : faiblesses et manquements

L’analyse d’un ingénieur

par
5 433 vues

Un travail bibliographique,  portant exclusivement sur les publications de chercheurs spécialisés reconnus par le GIEC,  montre que les modèles de simulation climatique qui sont le cœur de la recherche climatique actuelle et les seuls outils susceptibles de fournir des prévisions chiffrées sont en réalité inexploitables.

Aussi surprenant que cela puisse paraître, ce sont les numériciens du climat qui l’écrivent  eux-mêmes dans des publications spécialisées qui  restent confidentielles faute de relais médiatiques et institutionnels.

Le présent travail montre qu’en réalité la plus grande incertitude règne en la matière, avec l’incapacité de simuler certains phénomènes atmosphériques dominants (comme les nuages), l’absence de fiabilité  des résultats et le caractère contestable de leur exploitation.

Pourtant ces modèles sont à l‘origine de  l’équation qui mène aujourd’hui le monde occidental vers la fameuse  « neutralité carbone en 2050 » qui limiterait la hausse de la température mondiale à environ 1,5°C par rapport à l’ère préindustrielle.

Pour l’auteur, la société est ainsi entraînée sur la pente brutale de la décarbonation généralisée, malgré l’absence d’une information équilibrée sur l’état réel de la recherche scientifique qui fonde les décisions de politique publique.

Une démarche fondée sur la raison critique.

Pour qu’il n’y ait aucune ambiguïté, posons en préambule qu’il est clair, pour nous comme pour la très grande majorité de la population, que la protection de l’environnement et l’utilisation sobre et rationnelle de l’énergie sont un enjeu majeur pour l’avenir. Il est également indéniable que  la température moyenne de l’atmosphère a augmenté  ces 200 dernières années.

Aujourd’hui des décisions drastiques et engageant l’avenir sont prises au motif que la science climatique aurait définitivement statué, science qui aurait « parlé », comme il est commun de l’entendre.

Sur le fond, constater l’élévation de température ces 200 dernières années est une chose (assez complexe en soi), en interpréter la cause en est une autre, et quantifier l’avenir une troisième : la thermodynamique de l’atmosphère n’a malheureusement pas la simplicité de la bille qui tombe sous l’effet de la pesanteur !

Elle est au contraire d’une extrême complexité, chacun le reconnaît et il y a un paradoxe entre cette complexité admise et la simplicité de « la seule faute au CO2 ».

Faisant totalement fi de ce paradoxe, les politiques publiques en la matière se résument désormais à la « décarbonation » de la société tout entière.

Alors, que dit vraiment la science du climat ?

Compte tenu des enjeux, il n’est pas inutile de se poser cette question, si peu abordée tant les choses paraissent certaines et sans appel.

Pour le savoir, un travail bibliographique a été entrepris, EXCLUSIVEMENT fondé sur des publications de scientifiques spécialisés reconnus,  par le GIEC en particulier, de façon à éliminer tout biais qui pourrait qualifier la démarche de  « climatosceptique ».

La modélisation numérique au cœur de la recherche climatique

Aujourd’hui, la climatologie est un large domaine d’étude et de recherche qui relève de nombreuses disciplines scientifiques distinctes les unes des autres (océanographie, glaciologie, hydrologie,  astronomie, géologie, thermodynamique, paléoclimatologie, histoire, analyse numérique, physique du rayonnement, etc.).

Aucune de ces disciplines n’est, à elle seule, capable d’une interprétation globale et encore moins d’une évaluation quantitative.

Les seuls outils susceptibles d’évaluer les températures futures de la planète sont les modèles climatiques de simulation, les plus évolués étant dénommés « modèles climatiques globaux ».

Supposés intégrer l’ensemble des facteurs en jeu, ces outils de simulation sont à l’origine de l’équation du GIEC qui gouverne désormais l’avenir de nos sociétés européennes : neutralité carbone en 2050 = espérance d’une élévation de la température moyenne limitée à 1,5°C en 2100 (par rapport à l’ère préindustrielle).

Si leur rôle est central, quelles sont les capacités réelles de ces modèles ?

Cette question, qui n’est jamais posée publiquement et dont le GIEC ne fait aucunement état dans ses « résumés aux décideurs », mérite pourtant de l’être.

La modélisation du climat est par ailleurs une discipline qui présente la particularité d’être hyper spécialisée, extrêmement complexe et surtout quasi confidentielle parce que les numériciens du climat représentent une infime minorité de chercheurs étiquetés « spécialistes du climat ».

Elle est de ce fait quasi inaccessible, y compris aux autres scientifiques et c’est là  un second paradoxe, loin d’être négligeable vu l’importance stratégique de la discipline.

La question du « réglage » des modèles climatiques

Un modèle, c’est la représentation virtuelle et discrétisée d’un domaine au sein duquel se développent des phénomènes physiques que l’on formalise par des équations, dont on estime certains paramètres directeurs non mesurables et qu’on borne par des conditions spécifiques aux limites du domaine.

Qualité des « équations », « conditions aux limites » et « réglage » des paramètres directeurs sont les facteurs clefs de toute simulation numérique.

Des incertitudes peuvent concerner ces trois éléments mais le plus critique, quand il s’agit de modéliser la géosphère (c’est-à-dire les milieux naturels), est l’estimation des paramètres directeurs des équations,  dénommée souvent  « calage » ou «  réglage » du modèle. On le fait en ajustant les résultats de calcul sur des historiques pertinents de données, quand ils existent, ou bien on les estime comme on peut.

Le réglage est par conséquent un acte essentiel et délicat, consubstantiel à la modélisation elle-même. Les résultats de calcul y sont très sensibles et les paramètres non mesurables sont un des talons d’Achille de la modélisation des milieux naturels, tous les numériciens  le savent et ont à gérer ce sujet. Cela fait partie de leur « art » qui ne relève en aucun cas du « presse bouton ».

Un résultat de modélisation doit par conséquent s’accompagner d’une notice sur ces paramètres, les hypothèses qu’ils contiennent et l’incertitude qu’ils produisent sur les résultats de calcul.

Dans le cadre d’une étude d’inter comparaison des modèles à l’échelle internationale reconnue par le GIEC, un  article collectif publié en 2017 sous la direction de F. Hourdin du laboratoire de météorologie dynamique (CNRS – Université Pierre et Marie Curie) (1) constate la très faible prise en compte de la question  du « réglage » des modèles et regrette explicitement que le GIEC ne s’y intéresse pas. L’opacité sur le sujet est signalée par les auteurs qui y voient une lacune importante. Ils appellent explicitement à plus de  transparence.

Le papier est très honnête, très direct et en même temps édifiant compte tenu de l’importance du sujet.

Je cite :

 « Il existe une subjectivité dans le réglage du modèle climatique […] il est souvent ignoré lors des discussions sur les performances des modèles climatiques dans les analyses multimodèles […] Pourquoi un tel manque de transparence? 

« Cela est peut-être dû au fait que le réglage est souvent considéré comme un élément inévitable mais sale de la modélisation du climat […] un acte de rafistolage qui ne mérite pas d’être écrit dans la littérature scientifique […] 

« Le réglage peut en effet être considéré comme un moyen inracontable de compenser les erreurs de modèle. »

Au-delà de sa clarté, ce propos direct illustre parfaitement une lacune méthodologique majeure, car  l’exploitation des résultats s’exonère manifestement de toute documentation sur les hypothèses de calcul, sur les conditions de réglage, sur la sensibilité des résultats aux paramètres, etc. toutes choses élémentaires et encore une fois consubstantielles à la simulation elle-même.

Un jury de thèse demanderait systématiquement ces éléments à un doctorant présentant des résultats de calcul. Cette situation n’est par conséquent pas conforme aux « règles de l’art » et les spécialistes la dénoncent à juste titre.

Mais les auteurs vont plus loin, je cite :

« Vingt-deux groupes sur 23 ont signalé avoir ajusté les paramètres du modèle pour obtenir les propriétés souhaitées, en particulier à la partie haute de l’atmosphère. »

Cette phrase ne peut que susciter  davantage d’interrogations : suggèrerait-elle que cette opacité permettrait de  régler les modèles pour obtenir les résultats souhaités ?

A la recherche des résultats attendus

En creusant davantage, on découvre que tel est bien le cas, au moins dans un cas publié : un modèle, mis en œuvre en 2019 au sein de l’Institut Max Planck de climatologie en Allemagne (2), conduisait à une sensibilité climatique à l’équilibre (ECS) de 7°C jugée irréaliste (la sensibilité climatique est la variation de la température mondiale estimée pour un doublement du CO2 par rapport à l’ère préindustrielle).

On comprend qu’un paramètre de réglage de la convection atmosphérique a été multiplié par 10 par rapport à la valeur initialement estimée, pour corriger la chose et aboutir à une sensibilité considérée comme plus acceptable de 3°C…

Je cite :

« […] nous avons décidé de viser une sensibilité climatique d’équilibre d’environ 3 °C. La réduction de la sensibilité du modèle a été principalement obtenue en augmentant le taux d’entraînement pour une convection peu profonde d’un facteur 10 […] dans le but de réduire la rétroaction des nuages tropicaux de basse altitude. »

On ne peut que s’interroger sur la pertinence de ce  « réglage » de circonstance : pourquoi multiplier par 10 le paramètre jugé correct initialement, pourquoi pas 5, 20 ou 50… ?

Quel est le sens physique d’un tel réglage ?

Cette question précise est essentielle car si l’on n’est pas capable de clarifier le sens physique d’un réglage, le modèle perd totalement de son intérêt et de sa pertinence : il fait l’objet d’un ajustement opportuniste sans nécessaire cohérence avec la physique des phénomènes simulés.

L’article n’en parle pas alors que c’est un des pièges bien connu du réglage ; on peut faire l’analogie (également bien connue des statisticiens) avec les  corrélations sans cause.

Ce réglage montre simplement que, toute chose étant égale par ailleurs et en particulier à effet de serre donné, la mécanique interne de l’atmosphère, en l’occurrence la convection des nuages, a un impact considérable sur la température.

La mise en évidence de l’influence d’un tel « mécanisme interne »  ne manque pas d’intérêt, à l’inverse de la température qui, calculée dans ces conditions, n’en présente aucun.

Tout cela pose question et c’est un euphémisme.

Des objets de recherche incertains.

En 2020, F. Hourdin et son équipe précisent la problématique à gérer et les modalités d’amélioration de leur modèle (3).

Je cite :

« […] Il est communément admis qu’une grande partie de l’incertitude dans les projections futures du changement climatique avec les modèles climatiques mondiaux provient de la représentation de processus physiques non résolus par ce qu’on appelle des paramétrisations, et en particulier des paramétrisations de la turbulence, de la convection et des nuages. Les mêmes paramétrisations sont également responsables d’erreurs importantes, qui persistent dans la représentation du climat actuel avec les modèles globaux.

« […] L’amélioration des modèles numériques globaux est essentielle pour l’anticipation des changements climatiques futurs.

« […] Les améliorations sont basées sur des changements significatifs du contenu physique ainsi que sur une stratégie de réglage mieux contrôlée. »

Cette analyse confirme sans ambiguïté ce qui est évoqué plus haut, à savoir le champ considérable des inconnues et des insuffisances.

La qualité des équations est problématique puisque la physique de bon nombre de phénomènes n’est pas formulable explicitement, comme les nuages qui jouent un rôle majeur et variable selon leur configuration et leur extension. 

Cette publication confirme que les modèles climatiques, sur lesquels tout repose, sont en fait eux-mêmes des objets de recherche, encore peu avancée compte tenu de la difficulté et de la complexité  du sujet.

A l’évidence ce ne sont pas des outils numériques d’ingénierie prédictive, comme les modèles de calcul de structure ou de calcul thermique par exemple : dans ces deux cas, les équations sont connues et les paramètres mesurables par voie expérimentale ; il ne s’agit pas de simuler le milieu naturel.

En d’autres termes, le domaine du calcul climatique relève clairement de la « recherche » avec par essence  ses incertitudes, ses inconnues et ses obstacles… à ne pas confondre avec la « science », c’est-à-dire un corpus de connaissances établies, fondées sur la théorie et l’expérience.

Cet état de fait  n’est pas choquant en soi ;  le fait que ce  soit un non-dit  masqué vis-à-vis  des décideurs et du public est en revanche très choquant et révèle un problème épistémologique méconnu mais majeur.

L’amalgame médiatique entre recherche et science est souvent fait par méconnaissance, abus de langage et confusion des termes.

Des calculs prédictifs inexploitables

Le 5 mai 2022, l’insuffisance majeure des modèles climatiques est explicitement admise dans un commentaire publié dans la revue Nature, co-signé par des spécialistes tout à fait reconnus, dont Gavin A. Schmidt, le directeur du GISS (Goddard Institute for Space Studies de la NASA)  (4).  Le GISS est un des piliers mondiaux de la science climatique officielle.

Ce commentaire, destiné à alerter la communauté scientifique, intitulé « Reconnaître le problème du modèle chaud » se fonde sur la comparaison la plus récente de 50 modèles (CMIP6).

Il indique qu’une part significative de ces outils de dernière génération, supposés plus performants,   «surchauffent » et sont incapables de reproduire le passé.

Je cite :

« Avis aux utilisateurs : un sous-ensemble de la dernière génération de modèles « surchauffe » et prévoit un réchauffement climatique en réponse aux émissions de dioxyde de carbone qui pourrait être plus important que celui obtenu à partir d’autres modèles. »

Et les auteurs d’expliquer :

« Auparavant, le GIEC et de nombreux autres chercheurs utilisaient simplement la moyenne et la dispersion des modèles pour estimer leurs impacts et leurs incertitudes. »

Il faut s’arrêter sur cette phrase, car on découvre à l’occasion une situation étonnante : on comprend que le GIEC estimerait la température future de la planète en faisant la moyenne des résultats des modèles climatiques globaux disponibles !

Cette  forme de « démocratie  numérique » n’a rien de scientifique  et, sauf erreur, n’existe dans aucune autre discipline… un peu comme si on décrétait que le bon résultat d’une épreuve de mathématiques au bac n’était pas dans celle de la copie qui a 19/20 mais dans celle qui a 10/20, en faisant une moyenne avec  les mauvaises notes qui pèseraient aussi lourd que les bonnes (à supposer qu’il y ait des bonnes notes en modélisation du climat… ce qu’on ne sait pas) !

La validation des modèles n’est manifestement pas faite comme il se doit, c’est-à-dire individuellement ; on fait la moyenne de tous les modèles.

L’incertitude ne repose pas sur une analyse de sensibilité aux paramètres pour chaque modèle,  mais sur les écarts entre les  modèles pris dans leur globalité.

Cette approche « démocratique » de la recherche est singulière pour ne pas dire baroque et conduit à s’interroger légitimement sur le GIEC qui, s’il s’appuie effectivement sur des résultats de recherche, les exploitent d’une façon sans doute politique mais en aucun cas scientifique, comme ce type de moyenne inusitée  le montre.

Mais l’article va plus loin. Je cite :

« Dans le rapport AR6 (ndlr : sixième  cycle d’évaluation  du GIEC, le plus récent – 2021), ces méthodes simples ne fonctionnent plus (ndlr : il s’agit de cette moyenne) : les modèles à haute sensibilité pris isolément n’ont pas le même poids que les autres pour estimer la température globale. Les auteurs du rapport AR6 ont décidé d’appliquer des pondérations à chaque modèle avant d’en faire la moyenne, afin de produire des projections de réchauffement climatique « réévaluées ».

En d’autres termes, « le principe » qui consistait jusqu’à présent à prendre en compte la moyenne des résultats de tous les  modèles  pour prévoir l’avenir thermique de la planète n’est désormais plus valable… Les auteurs approuvent le principe d’une « pondération » effectuée par le GIEC de façon à  limiter l’impact des modèles les plus récents qui « surchauffent » !

Que dire de cet invraisemblable bricolage manifestement destiné à aboutir aux valeurs qui conviennent ?

En réalité, les auteurs reconnaissent  explicitement  qu’il est impossible de quantifier l’avenir dans la mesure où il n’est pas possible de prendre en compte tous les facteurs de la thermodynamique atmosphérique (ils reviennent  en particulier sur le rôle central des nuages quasi impossibles à représenter numériquement).

Je cite :

 « La Terre est un système complexe dans lequel les océans, la terre, la glace et l’atmosphère sont interconnectés, et aucun modèle informatique ne pourra jamais en simuler exactement tous les aspects. […]

« Les modèles varient dans leur complexité qui font chacun des hypothèses et des approximations différentes sur les processus qui se produisent à petite échelle, comme la formation de nuages. […]

 « Il y a de nombreux aspects du changement climatique que nous ne comprenons pas encore, d’où la nécessité de continuer à améliorer la science du climat. […]

« Cependant, même si nous connaissions précisément ce volume (gaz à effet de serre), nous ne saurions toujours pas exactement quel serait le niveau de réchauffement de la planète. […] »

Et ils proposent tout simplement de ne plus utiliser ces outils pour faire des prévisions dans le temps !

Telle est la conclusion insoupçonnée à laquelle aboutissent aujourd’hui des spécialistes de haut niveau international,  insoupçonnables de « climato scepticisme »,  après des décennies de modélisation et de progrès supposés.

Les modèles les plus récents, c’est-à-dire les plus évolués, donnent de « mauvais » résultats, au point de devoir être massivement « pondérés ».

En matière d’évaluation et de prévision  quantifiée, ces publications montrent que la science est en réalité du côté de la plus grande incertitude et nous sommes par conséquent très loin d’une ingénierie numérique exploitable contrairement à ce que l’on fait croire.

On ne sait pas évaluer les températures futures, on ne sait pas prendre en compte correctement une partie des phénomènes internes essentiels et cela se comprend très bien vu l’extrême complexité de l’objet simulé.

Ces chercheurs honnêtes l’écrivent, mais cela reste confidentiel faute de relais médiatiques et institutionnels.

Les rapports du GIEC cachent aux décideurs la réalité de ces insuffisances ; au contraire, ils assènent des certitudes : l’homme reste responsable du climat et il y a urgence à agir.

Il faut rappeler à ce stade que l’objet statutaire du GIEC n’est pas d’étudier le réchauffement climatique, mais d’étudier le réchauffement climatique d’origine humaine.

Ce biais originel a manifestement des conséquences considérables sur l’orientation des travaux de recherche à l’échelle mondiale, sachant que les rapports du GIEC sont approuvés formellement par chacun des Etats et deviennent de ce fait des éléments de politique publique, particulièrement suivis en Europe.

Une unanimité scientifique factice.

Au-delà de la science qui aurait parlé et dont on peut mesurer la faiblesse prédictive, on entend également en permanence qu’il y a unanimité de la communauté scientifique sur le sujet et qu’il faut « écouter les scientifiques».

La responsabilité centrale du CO2 dans la perspective climatique catastrophique à venir est de ce fait considérée comme une vérité absolue.

Tout scientifique interrogé dans la rue le dira sans doute comme tout le monde, d’autant que le contester pourrait s’avérer préjudiciable à sa carrière. Mais qu’en est-il quand il s’exprime dans le cadre professionnel des publications scientifiques à comité de lecture, c’est-à-dire le seul qui compte ?

La référence est une étude australienne (5) parue en 2013 (et reprise par Greenpeace) qui conclut effectivement que 97% des scientifiques compétents considèrent que le réchauffement climatique est bien d’origine anthropique.

Le diable étant dans les détails, il faut regarder de plus près la méthodologie de l’étude : 11944 publications (environ 25 000 coauteurs) dont les résumés contiennent les termes « global warming » et « global climate change », parues entre  1991 et 2011 dans des revues à comité de lecture, ont été analysées et classées.

Sur ces 11944, 7970 soit près de 70% ne donnent aucun avis sur le sujet… et ont été éliminées du « panel » !

Sur les 30% restantes, en réalité seules 1010 publications (soit 8,5% du nombre initial) donnent un avis explicite et 986 d’entre elles indiquent effectivement que l’homme est responsable, soit bien 97,6%. Mais… 97,6% de 8,5%, soit… 8,25% du total !

Ainsi en réalité, 91,5% de la communauté scientifique concernée ne donne aucun avis explicite professionnel sur la question et l’unanimité affichée par les medias  (et Greenpeace) ne porte que sur un peu plus de 8%. Une étude américaine de même nature publiée en 2021  conduit à des résultats comparables (6).

L’unanimité scientifique sur l’origine humaine du réchauffement climatique relève clairement d’une exploitation fallacieuse  des chiffres,  si l’on s’en tient à la réalité des publications professionnelles sur laquelle est basée cette affirmation.

En matière de chiffres, le dernier rapport du  GIEC suscite  également bien des interrogations.

Les chiffres du GIEC… pas exactement l’idée qu’on s’en fait

Partons maintenant de l’hypothèse que les évaluations du GIEC sont fiables et intéressons-nous à l’impact du CO2.

Dans son dernier rapport aux décideurs concernant les aspects scientifiques (7), il est indiqué (p9 A.1.3)  que pour le passé et jusqu’à nos jours, le  « probable réchauffement dû à l’homme depuis 1850-1900 est d’environ +1°C ». Plus loin, il est écrit pour le futur (p35  D1.1)  que  « chaque  tranche de 1000 Gt  d’émissions cumulées de CO2 provoque une augmentation probable de la température mondiale de 0,45 °C  (meilleure estimation) ».

On peut s’arrêter sur ce chiffre.

Les émissions annuelles de CO2 résultant de la combustion des hydrocarbures représentent aujourd’hui environ 35 GT.

Un calcul simple montre qu’en 2100, dans 80 ans et selon les hypothèses du GIEC, on aboutirait au rythme de la consommation mondiale actuelle  (du fait des hydrocarbures)  à une hausse de température estimée depuis 1850 de 2,3 °C (1+80*35/1000*0,45°C = 2,26 °C)… à comparer avec l’objectif de neutralité carbone en 2050 qui conduirait à une hausse comprise limitée à  1,5°C.

Soit un écart inférieur à 1 °C entre les deux scénarii d’émissions !

Ce faible écart estimé est à mettre en regard de l’objectif de « neutralité carbone en 2050 » qui lui, à contrario,  représente bien  une révolution industrielle, économique et sociale aussi faramineuse que brutale par rapport à notre mode de fonctionnement actuel où 80% de l’énergie utilisée dans le monde est d’origine fossile.  D’après l’Agence internationale de l’énergie (8) en effet, pour atteindre la neutralité carbone en 2050, il faudrait réduire  la consommation mondiale de charbon de 90%, celle de pétrole de 75% et celle de gaz naturel de 55%.

Cet objectif de réduction drastique est colossal et ne peut s’obtenir que par une forte décroissance… pour moins de 1°C d’écart estimé !

C’est assez surprenant mais pour mieux comprendre, il faut savoir que le GIEC présente en fait différents scénarii d’émission de CO2 d’ici la fin du siècle. La hausse spectaculaire autour de 4,5°C (voire plus) souvent mise en avant dans les media, est en réalité  « calculée » par le GIEC sur la base du scénario d’émission de CO2 le plus extrême (scénario SSP5-8.5- voir 8 p.13- fig. SPM.4) qui prévoit non pas la poursuite de nos émissions au niveau actuel, mais leur multiplication par deux d’ici 2050 puis par trois d’ici 2080… c’est à dire une croissance effrénée (et sans doute irréaliste) de la consommation d’hydrocarbures !

Malheureusement, les chiffres présentés dans les media ne sont jamais assortis des hypothèses qui les sous- tendent, ce qui  entretient la confusion.

Pour terminer de façon pratique, notons que la Chine, l’Inde et les pays dits « du Sud » qui représentent l’essentiel de l’humanité fondent leur développement majoritairement sur les énergies fossiles et n’ont pas l’intention d’y renoncer.

La Chine met en œuvre aujourd’hui un programme électro-charbonnier sur dix ans qui représente environ 300 GW, soit 5 à 6 fois la puissance électronucléaire totale installée en France, quand  l’Inde multiplie les ouvertures de mines de charbon.

La France pèse moins de 1% des émissions mondiales.

Un débat d’intérêt public interdit et une société prise en otage

Qu’ont à répondre sur le fond  les spécialistes médiatiques de l’urgence (voire de la  terreur climatique) et sur quoi fondent-ils précisément leur certitude affichée et chiffrée du rôle majeur, immédiat et catastrophique du CO2 ?

Quand on interroge les spécialistes et des leaders d’opinion, la réponse est toujours la même : pas de réponse. Tout cela est manifestement un non sujet, n’a pas à être discuté et surtout l’expression du moindre doute apparaît comme une inadmissible transgression.

Or, comme  pour tout domaine de recherche scientifique, le doute est non seulement légitime mais salutaire et le débat contradictoire, nécessaire.

Au nom de quoi la climatologie serait-elle le seul domaine à pouvoir s’y soustraire ?

Les interdits intellectuels sont bien sûr antinomiques avec l’essence même de la recherche et posent un problème éthique, déontologique et épistémologique.

Nos médias donnent une parfaite illustration de cette situation, comme en témoigne la récente charte environnementale de Radio France, dont le premier article est le suivant, je cite :

« Article 1 : Nous nous tenons résolument du côté de la science, en sortant du champ du débat la crise climatique, son existence comme son origine humaine. Elle est un fait scientifique établi, pas une opinion comme une autre. »

Cette position officielle « d’autorité » qui s’exprime à longueur d’antenne sans la moindre contradiction (sur les radios de service public supposées pluralistes par leur statut)  illustre  à quel point  l’idéologie,  le militantisme, voire l’endoctrinement ont pris la main.

C’est ce qui est  dénoncé par de nombreux scientifiques au plan international, à l’image de l’américain John Clauser, prix Nobel de physique 2022, ou bien de Steven Koonin (9), membre de l’Académie des sciences américaine,  ancien sous-secrétaire d’Etat à la science du département de l’énergie de l’administration Obama.

Si cette affaire ne relevait que d’un débat savant, cela ne poserait pas vraiment de problème ; la tectonique des plaques a mis soixante ans avant d’être admise par la communauté des géologues.

Mais en l’occurrence, il s’agit de l’avenir de notre société et c’est une affaire d’Etat.

Nos concitoyens sentent bien qu’il y a sur ce sujet quelque chose d’anormal, même s’ils n’ont aucun outil ni aucune information structurée leur permettant des choix éclairés.

Ils ont raison car on n’a sans doute jamais pris de décisions aux conséquences aussi lourdes sur des fondements aussi faibles.

Il n’est pas trop tard pour les décideurs d’en prendre la mesure et pour les experts d’avoir le courage de  s’expliquer publiquement et contradictoirement.

Références bibliographiques

  1. Fréderic Hourdin et all : « The art and science of climate model tuning » – Bulletin of American Meteorological Society – BAMS mars 2017 98, n ° 3 , pp. 589-606
  2. Thorsten Mauritsen et all : Développements dans le modèle du système terrestre MPI-M version 1.2 (MPI-ESM1.2) et sa réponse à l’augmentation du CO2 – Journal of advances in modelling earth systems – 13 janvier 2019
  3. Frederic Hourdin, Catherine Rio, Jean-Yves Grandpeix, Jean Baptiste Madeleine, Frédérique Cheruy : La composante atmosphérique du modèle climatique IPSL avec une physique améliorée et mieux réglée – Journal of advances in modelling earth  systems – 06 avril 2020.
  4. Zeke Hausfather, Kate Marvel, Gavin A.Schmidt et all :  « climate simulations : recognize the « hot model » problem –  Nature – vol 605 – 5 mai 2022
  5. John Cook et al : Environmental research letters : Quantifying the consensus on anthropogenic global warming in the scientific literature -Environ. Res. Lett. 8 024024 – 15 05 2013
  6. Mark Lynas, Benjamin Z Houlton et all : Environnemental research letters : Greater than 99% consensus on human caused climate change in the peer-reviewed scientific l – 19 October 2021
  7. GIEC – changement climatique 2021 –Les bases scientifiques physiques – résumé à l’intention des décideurs. (IPCC_AR6_WG1_SPM)
  8. Net zero by 2050 – A roadmap for the global energy sector – AIE – mai 2021
  9. Steven Koonin : « Climat, la part d’incertitude » Edition l’Artilleur – 2022

Présentation de l’auteur

Citoyen ordinaire à la retraite,  l’auteur est ingénieur ( Mines de Nancy)  et  scientifique de formation ( thèse de 3ème cycle de mathématique appliquée en géosciences à l’Ecole des Mines de Paris) ; ancien chef d’une entreprise technologique spécialisée dans les modèles numériques de simulation pour l’industrie mécanique et métallurgique (Transvalor SA), il a une expérience pratique de  la modélisation numérique appliquée à différents domaines.

Il est familier du  milieu de  la recherche, ayant été pendant 20 ans directeur de l’association ARMINES,  importante structure de recherche partenariale (partenariat recherche publique – recherche privée).

C’est bien sûr à titre strictement personnel qu’il s’exprime, considérant disposer de l’expérience et de la compétence  pour exercer sa raison critique sur l’état de l’art de la modélisation climatique qui est à la source des prévisions chiffrées en la matière.

Abonnez-vous à la Lettre des libertés !

Laissez un commentaire

30 commentaires

nanard 13 février 2024 - 9:38

OUI, analyse pertinente . Nous sommes des ignorants qui s’ignorent.

Répondre
Pierre Moulliet 13 février 2024 - 9:53

Il est dommage que vous ne citiez pas la vapeur d’eau comme principal GES. En cas de réchauffement de notre planète pour toute cause autre qu’humaine, les lois de la physique donnent une tension de vapeur augmentée…et une augmentation de l’ effet de serre du à ce gaz qui représenterait déjà entre 70 et 80% du phénomène.
Pourquoi se battre contre le seul CO2 ?

Répondre
Strehl 13 février 2024 - 10:44

J’apprécie généralement le plaidoyer pour le libéralisme de l’IREF, ses éclairages pertinents pour sortir des clichés fallacieux, du prêt à penser. Mais je pense ici qu’il est fait un mauvais procès au GIEC avec beaucoup d’arguties. L’humanité est face à un défi colossal qui nécessite des efforts des investissements, de l’innovation. Le problème est plutôt qu’on sous-estime largement les efforts à effectuer. L’heure n’est pas à espérer que le problème n’existe pas vraiment, que l’argent magique ou celui des riches suffira à le résoudre, encore moins à imaginer une décroissance heureuse qui n’existe que dans la tête des bobos repus ignares en économie. Il faut se retrousser les manches, être efficaces dans absolument tout ce que nous faisons, accepter aussi d’être solidaires des plus précaires en excluant les passagers clandestins. Bien cordialement Yoland Strehl

Répondre
Michel Perrin 14 février 2024 - 11:08

J’ai reçu hier une invitation de la part de la M.A.I.F. pour assister à une conférence intitulée « Les impacts humains du changement climatique  » avec l’intervention de François Gemenne ( chercheur en Sciences politiques à l’
Université de Liège / auteur principal pour le GIEC ) .
Cette conférence aura lieu le 8 mars à 20 h30 à l’auditorium SEYNOD ( Place de l’hôtel de ville/ ANNECY) .
Je lis sur le carton d’invitation que cet événement est ouvert à tous ( Informations et inscription sur entreprise. maif.fr/climat
) .
La Propagande continue…

Répondre
Jean-Francois Geneste 13 février 2024 - 10:47

Très bon article! Nous savons cela depuis maintenant 2 décennies au moins, et nous constatons avec plaisir que certains essaient encore de révéler la vérité quant aux modèles. Et il y a encore bien d’autres sujets que l’on pourrait ajouter sur les modèles eux-mêmes sinon la physique fondamentale qui n’est pas si bien connue que cela pour ce qui concerne la mécanique des fluides.

Répondre
Jean Laherrere 13 février 2024 - 10:51

la plupart des scénarios du GIEC sont irréalistes, notamment le SSP5 = shared socioeconomic pathway ou la consomation de charbon en 2050 est 10 fois la consommation envisagée par les experts du charbon

Répondre
Firmin 13 février 2024 - 10:58

Que c’est bon de voir qu’enfin quelqu’un se questionner sur le dogme autour du réchauffement climatique d’une part et d’autre part l’aspect anthropique, mais anthropique pourquoi ou plutôt pour qui ?
Déjà redéfinissons le E de GIEC traduit en europe par « experts » sauf que ces prétendus experts du giec sont en réalité les ministres de l’écologie des pays membres de cette organisation qui font appel à des experts pour rédiger des rapports sur le sujet. Nombre de ces vrais experts se sont maintenant fédérés pour dénoncer le fait que les auto-proclamés experts du giec falsifient leurs rapports au point de leur faire parfois même dire l’inverse de ce qui y est établi !!!!
La température à toujours fluctué sur notre planète amenant les océans à se dilater en surface ou se rétrécir. Souvenons-nous que sur les sentiers côtiers on avait autrefois des pancartes nous expliquant et nous montrant ce phénomène naturel avec des croquis. De plus, qui n’est pas allé en forêt de Fontainebleau chercher des pierres blanches avec des coquillages incrustés nous montrant que la Mer arrivait jusqu’à proximité de Paris à certaines époques. J’ai trouvé de tels pierres retournées par la charrue de mon père dans les champs de sologne qui est sur la route de Paris vers l’océan.

Oui il faut protéger notre belle Terre de toute cette chimie qui la pollue et nous tue à petit feu et pourquoi surconsommer ? Et d’ailleurs qui organise l’obsolescence programmée responsable de la totalité de la pollution la plus toxique ?
Toujours les mêmes : ceux qui organisent la peur et la division de la population à la tv et dans les médias qu’ils ont achetés (en accéléré depuis 2020). Et tout cela trouve explication dans l’agenda 2030 de l’onu et dans le livre de schwab « the great reset » publié sur son site du web economic forum. Et à chaque fois ils inventent une modélisation comme celle « fake » de la transmission du virus pour créer la peur, souvenez-vous ! Certains ont hélas la mémoire courte car tous ces artifices sont tellement visibles.

Répondre
Eric Pecquerie 13 février 2024 - 11:18

Bravo pour la publication de vraies informations. Cela fait 20 ans que je clame ces faits. J’ai une grande experience de simulation et de modélisation. Et je sais qu’il est possible de faire dire aux modèles ce que l’on veut qu’ils disent. Ce n’est plus de la modélisation c’est juste de la manipulation de données ( voir la courbe en crosse de hockey de l’augmentation de températures) La science, la vraie demande modestie et humilité. Le GIEC, que je pense sous domination des ONG, n’est pas un organisme scientifique, c’est un organisme de propagande.

Répondre
Moulin 13 février 2024 - 11:57

Remarquable long document ! Bravo pour l’auteur!!! Bravo pour l’IREF de l’avoir publié!!!!!

Répondre
Strehl 18 février 2024 - 1:43

Je rajoute un commentaire à celui du 13 février. Que le GIEC et toute la bande de scientifiques qu’il y a derrière tout de même surestiment la responsabilité des activités humaines dans le réchauffement ou non, celui-ci pose de toute façon un sérieux problème à l’humanité et à l’environnement en général. Le problème n’est d’ailleurs pas le réchauffement lui même que sa rapidité qui ne laisse pas beaucoup de temps ni aux hommes ni aux écosystèmes de s’adapter et de limiter les dégâts. De toute façon on a donc intérêt à freiner ce réchauffement quelles qu’en soient les causes. Et parmi les moyens dont on dispose il y a bien la réduction des émissions de gaz à effet de serre qui est certes fort contraignante, mais ne rien faire ne peut être que pire. En réponse à l’un des commentaires, l’augmentation de la teneur en vapeur d’eau et les émissions de méthane liées au dégel du permafrost ne sont que des conséquences du réchauffement et tendent à l’amplifier.

Répondre
an 13 février 2024 - 12:05

MERCI MILLE FOIS MERCI POUR CETTE PASSIONNANTE ANALYSE ! Une lueur d’espoir dans ce monde qui semble avoir tourné le dos au bon sens…

Répondre
Oncpicsou 13 février 2024 - 12:16

Merci pour la diffusion de cet excellent travail d’analyse.
André Gide avait bien raison quand il déclarait:
« Suivez ceux qui cherchent la vérité, fuyez ceux qui l’ont trouvée  » !

Répondre
BOUQUIN 13 février 2024 - 1:46

L’étude du climat connaît deux approches techniques possibles. Celle thermodynamique classique qui va observer les températures, les pressions, le taux d’humidité… Une autre, qui est l’approche électrique qui considère le circuit électrique terrestre et cosmique global. Cette seconde approche date de la fin du 19eme.

L’approche électromagnétique est ignorée par le GIEC ainsi que par ceux qui adhèrent inconditionnellement à la théorie des GES comme seuls moteurs du climat.

Ce faisant vous ne voyez pas les apports solaires variables des éruptions, les précipitations d’électrons énergétiques qui détruisent l’ozone (EEP et TPER:Nox), d’une manière générale vous ratez la plupart des couplages cosmiques, les subtilités des couplages et des contre réactions, tout comme les perturbations d’origine humaines, alors que par exemple dans le même temps des compagnies privées utilisent avec succès des générateurs d’ions négatifs pour renforcer les précipitations.

Même remarque pour les îlots de chaleurs urbains dont le rôle est dit négligeable même quand c’est devenu colossal sur les littoraux méditerranéens, tout comme n’est pas pris en compte l’impact climatique de la perturbation des cycles de l’eau ou seule la fonction inverse, la perturbation des précipitation par le CO2, est retenue.

Répondre
BOUQUIN 13 février 2024 - 1:49

L’étude du climat connaît deux approches techniques possibles. Celle thermodynamique classique qui va observer les températures, les pressions, le taux d’humidité… Une autre, qui est l’approche électrique qui considère le circuit électrique terrestre et cosmique global. Cette seconde approche date de la fin du 19eme.

L’approche électromagnétique est ignorée par le GIEC ainsi que par ceux qui adhèrent inconditionnellement à la théorie des GES comme seuls moteurs du climat.

Ce faisant vous ne voyez pas les apports solaires variables des éruptions, les précipitations d’électrons énergétiques qui détruisent l’ozone (EEP et TPER:Nox), d’une manière générale vous ratez la plupart des couplages cosmiques, les subtilités des couplages et des contre réactions, tout comme les perturbations d’origine humaines, alors que par exemple dans le même temps des compagnies privées utilisent avec succès des générateurs d’ions négatifs pour renforcer les précipitations.

Même remarque pour les îlots de chaleurs urbains dont le rôle est dit négligeable même quand c’est devenu colossal sur les littoraux méditerranéens, tout comme n’est pas pris en compte l’impact climatique de la perturbation des cycles de l’eau ou seule la fonction inverse, la perturbation des précipitations par le CO2, est retenue.

Répondre
BOUQUIN 13 février 2024 - 1:52

L’étude du climat connaît deux approches techniques possibles. Celle thermodynamique classique qui va observer les températures, les pressions, le taux d’humidité… Une autre, qui est l’approche électrique qui considère le circuit électrique terrestre et cosmique global. Cette seconde approche date de la fin du 19eme.

L’approche électromagnétique est ignorée par le GIEC ainsi que par ceux qui adhèrent inconditionnellement à la théorie des GES comme seuls moteurs du climat.

Ce faisant vous ne voyez pas les apports solaires variables des éruptions, les précipitations d’électrons énergétiques qui détruisent l’ozone (EEP et TIPER/Nox), d’une manière générale vous ratez la plupart des couplages cosmiques, les subtilités des liens électromagnétiques du condensateur que forme la terre avec sa ionosphère dont le comportement est quantifié, les contre réactions, tout comme les perturbations d’origine humaines, alors que par exemple dans le même temps des compagnies privées utilisent avec succès des générateurs d’ions négatifs pour renforcer les précipitations.

Même remarque pour les îlots de chaleurs urbains dont le rôle est dit négligeable même quand c’est devenu colossal sur les littoraux méditerranéens, tout comme n’est pas pris en compte l’impact climatique de la perturbation des cycles de l’eau ou seule la fonction inverse, la perturbation des précipitations par le CO2, est retenue.

Répondre
BOUQUIN 13 février 2024 - 1:53

L’étude du climat connaît deux approches techniques possibles. Celle thermodynamique classique qui va observer les températures, les pressions, le taux d’humidité… Une autre, qui est l’approche électrique qui considère le circuit électrique terrestre et cosmique global. Cette seconde approche date de la fin du 19eme.

L’approche électromagnétique est ignorée par le GIEC ainsi que par ceux qui adhèrent inconditionnellement à la théorie des GES comme seuls moteurs du climat.

Ce faisant vous ne voyez pas les apports solaires variables des éruptions, les précipitations d’électrons énergétiques qui détruisent l’ozone (EEP et TIPER/Nox), d’une manière générale vous ratez la plupart des couplages cosmiques, les subtilités des liens électromagnétiques du condensateur que forme la terre avec sa ionosphère dont le comportement est quantifié, les contre réactions, tout comme les perturbations d’origine humaine, alors que par exemple dans le même temps des compagnies privées utilisent avec succès des générateurs d’ions négatifs pour renforcer les précipitations.

Même remarque pour les îlots de chaleurs urbains dont le rôle est dit négligeable même quand c’est devenu colossal sur les littoraux méditerranéens, tout comme n’est pas pris en compte l’impact climatique de la perturbation des cycles de l’eau ou seule la fonction inverse, la perturbation des précipitations par le CO2, est retenue.

Répondre
Desmettre 13 février 2024 - 3:17

Très bon texte, enfin un avis qui n’est pas donné par un ancien de l’ENA ou de sciences po.
Si l’IREF pouvait nous donner des projections sur les rejets en CO² du pétrole, si et seulement si on laisse les exploitations « actuelles » se tarir sans intervenir par les réductions de consommation envisagées par le GIEC. Personnellement je pense que la pénurie de pétrole, donc l’arrêt des émissions de CO² (liées a cette énergie fossile) serait antérieure à 2050.
Merci d’avance
Patrick Desmettre

Répondre
Albatros 13 février 2024 - 3:40

Excellente analyse à diffuser au maximum de gens. Oui, même sans être scientifique, on peut comprendre.
Il serait intéressant de le diffuser à l’occasion d’une « fresque du climat ». Avez-vous essayé ?
Grand merci pour vos publications.
Cela équilibre les âneries des « journalistes scientifiques » du journal Le Monde, par exemple, ayatollahs écolo-gauchistes tordus antisystème à la Stéphane Foucart.
Sincères salutations.

Répondre
BIVAUD 13 février 2024 - 6:57

Surtout l’influence du soleil n’est jamais prise en compte ÉTRANGE NON!!!

Répondre
MOINIER 13 février 2024 - 8:11

Bonjour, je m’intéresse au climat depuis toujours. Mon père me disait, les hivers étaient bien plus vigoureux avant, son père lui disait la même chose m’a t’il dit. Mon père est né en 1902, son père de l’autre siècle où il n’y avait pas d’industrie, ni de véhicule, pas de pétrole.
Autre connaissance le Sahara était vert il y a 5000 ans et le réchauffement s’est fait progressivement depuis. Même s’il y a une accélération, quelle est la part de l’homme ou de la nature. Les avis de scientifiques vont que 10% à 90% par l’homme ?
Alors est-il nécessaire de tout bouleverser ? Des industriels, des financiers, politiques y ont certainement des intérêts ???
OK pour le bruit, la pollution, la nourriture. Acheter local à condition d’augmenter le pouvoir d’achat par le bas. Le seul moyen immédiat, c’est de revenir aux 40h = 110 Mds de plus par année dans l’économie française = sauvetage de toutes les caisses, forte baisse du chômage, diminutions des aides, meilleurs marge pour les entreprises, état sans déficit : Qu’attendons-nous ??? 6 livres sortis…

Répondre
Mennessier 13 février 2024 - 11:09

Merci beaucoup pour cet article courageux car à contre-courrant!
KOONIN dans son livre remarquable souligne en permanence la part d’incertitude qui s’impose scientifiquement. Il a aussi dénoncé les manipulations à peine déguisées sur les paramétrages des modèles.
Il serait bien étonnant que le changement de climat observé ne soit dû qu’au CO2!….

Répondre
MICHEL LEBRUN 14 février 2024 - 11:34

Dès les débuts des développements des modèles, la principale motivation était de démontrer la responsabilité du CO2, c’est à dire mathématiquement que le CO2 est la cause du réchauffement climatique et la température l’effet. Les chercheurs dubitatifs sur cette causalités étaient et sont encore aujourd’hui écartés. Et pourtant bien des travaux portent aujourd’hui à démontrer que l’élévation de température est la cause de l’accroissement du CO2.

Un statisticien membre de l’Académie des Sciences, spécialiste de
l’estimation fonctionnelle non paramétrique et la théorie des valeurs
extrêmes, démontre l’amateurisme et la débâcle des modèles mathématiques du
GIEC à la société française de calcul mathématique qui rejoint les mêmes
conclusions récentes de la British Royal Society pour les mathématiques et
les sciences. Paul Deheuvels a enseigné dans les plus grandes universités
mondiales, y compris à Columbia aux USA

Le consensus scientifique se fait en 2024 sur la grande incohérence des
modèles du GIEC repris pourtant par les gouvernements sans aucune
vérification !!!!!!!! ou par l’Europe avec les dégâts qu’ion connait sur les
agriculteurs.

Quelques passages savoureux :

L’activité des volcans, les cycles solaires, les variations et cycles
d’orbite terrestre, les mouvements du noyau, les courants marins ne sont pas
intégrés au modèle de calcul alors que leur influence est majeure.

La projection des courbes depuis dix ans ne correspond à aucune loi
d’espérance mathématique !!!!

Le plateau de température constaté stable depuis dix ans est présenté comme
une hausse par différents artifices !!!!

Des épisodes précédents voici 10 000 ans ont constaté bien plus chaud avec
la maturation des vignes en Norvège et en Ecosse, sans l’activité humaine
actuelle …. Mais ils ne sont pas intégrés….

Qui manipule le GIEC pour produire des modèles alarmistes non crédibles et
sans fondement scientifique ?

Pourquoi les medias si friands de lanceurs d’alerte pour météo ne parlent
pas de Donna Laframboise, la lanceuse d’alerte du GIEC ?

https://belgotopia.com/2019/01/22/giec-la-primaute-du-politique-sur-le-scien
tifique/

https://nofrakkingconsensus.com/2018/10/22/ipcc-redefining-global-warming-at
-the-11th-hour/

Le climat : beaucoup de bruit pour rien, 2 – Conférence de Paul Deheuvels du
08/02/2024 à la SCM – YouTube
https://www.youtube.com/watch?v=9V9gbX3UNpM

British society

Christian Onof est un scientifique incontesté. Après avoir terminé ses
études de premier cycle en mathématiques et en ingénierie à Paris et à
Hanovre, le Dr Onof a entrepris ses recherches doctorales à l’Imperial, et a
commencé comme maître de conférences en 1992. Son principal domaine de
recherche actuel est la modélisation stochastique des champs de
précipitations à des fins de simulation hydrologique et de conception des
crues, avec un accent particulier sur les échelles de temps fines. Ses
recherches portent en particulier sur le développement d’outils de réduction
d’échelle qui peuvent être appliqués pour évaluer l’impact du changement
climatique sur les variables hydrologiques.

Le Dr Onof a encadré plusieurs doctorants. Son enseignement porte sur
l’ingénierie des systèmes et les techniques de modélisation mathématique. Il
a initié de nouveaux cours magistraux en statistique

https://royalsocietypublishing.org/doi/10.1098/rspa.2021.0836

Ouvert :

https://www.mdpi.com/2413-4155/5/3/35

Répondre
Fiorucci 14 février 2024 - 4:22

En préparation AGRO au lycée Chaptal en 1961 notre prof de biologie, Marcel BOURNERIAS sommité mondiale dans les études mycologiques , en nous décrivant le prétendu effet de serre ( sans serres !) du CO2 nous a résumé la situation future de la façon suivante :
Messieurs , vous connaitrez dans votre vie le moment où cette histoire d’effet de serre sera l’arme non contrôlée pour mettre à bas l’économie occidentale , nous y sommes , essayez d’isoler des immeubles Hausmanniens par l’extérieur, et quand on vous interdira de les vendre vous verrez alors que la prédiction bien réelle de 1961 commence à porter ses fruits .

Répondre
AlainD 15 février 2024 - 5:32

Merci à l’IREF pour la reproduction de cet article qui devrait ouvrir les yeux de nos politiques – mais le désirent ils ? – Ou bien la doxa n’est elle destinée qu’à nous faire régresser en agitant quelque peu les esprits simples que l’on vit s’agiter dans les musées avec des projections de soupe ou de peinture ?
Qui et pourquoi a t on créé le GIEC dont le but inavoué est de nous faire gober un mensonge énorme ? Je passerai sous silence les élucubrations d’un Jancovici qui nous autorise à prendre 4 fois l’avion dans une vie…
Toutes ces modélisations ne tiennent aucun compte de l’activité solaire ni de la volcanique…
Je suis un pur profane, je retiens cependant comme information essentielle que le GIEC réalise ses calculs à partir du résultat à obtenir.
Dans le roman de George ORWELL 1984, toute la vie est régie par une oligarchie qui change sans cesse les informations qui circulent, la population est confinée dans un périmètre d’où il est strictement interdit de sortir. J’y vois une métaphore avec notre réalité : notre périmètre restreint est celui d’une pseudo science du climat que l’on nous assène comme une vérité première avec en corollaire le sauvetage de la planète…

Répondre
Mennessier 15 février 2024 - 7:21

Monsieur LECAUSSIN

Je reviens sur cet article trés intéressant.
Pour pouvoir le réutiliser utilement, il faudrait que Pascal IRIS, l’auteur, communique le lien vers « Le travail bibliographique » sur lequel il s’appuie.
Qu’en pensez-vous?
Serait-il possible d’avoir un lien ou une référence afin de pouvoir situer les passages critiques et les valider.
J’aurais la même requête pour les travaux de Frédéric HOURDIN et pourquoi pas des 8 premières références bibliographiques . La lecture du livre de S KOONIN me semble indispensable à toute personne qui se sent concernée par ces enjeux sociétaux.
C’est essentiel si on veut être collectivement efficace
Merci

Répondre
Nicolas Lecaussin 16 février 2024 - 11:44

Bonjour, les références bibliographiques sont à la fin de l’article.
Cordialement

Répondre
Le chat perché 16 février 2024 - 3:07

Ouf ! Merci pour cette bouffée d’air frais dans ce monde qui étouffe sous le poids des militants bien plus que sous celui du CO2 !

Répondre
CAPELLE Bruno 18 février 2024 - 10:53

Bonjour à tous,
et merci pour ce bel article prônant le questionnement, le doute et le débat.

De mon point de vue et de mon expérience, les prévisions sont basées sur un ensemble de SI > ALORS. Le SI étant la vraisemblabilité qu’un QUOI se produise, et qu’il entraine ALORS une conséquence permettant d’anticiper et de prévoir.
Dans le jeu du calcul de la prévision, il faut nécessairement et périodiquement vérifier s’il y a des écarts entre ce qui est imaginé, calculé et ce qui se produit.
-> Ceci entrainant éventuellement le rajout de quelques SI, de quelques ALORS, mais aussi la modification des ALORS pour les SI déjà connus.
-> Ceci entrainant parfois l’application de coefficients pondérateurs appliqués aux ALORS.

Au bout d’un certain temps le modèle de prévisions devient si complexe qu’il entraine une prolification des SI, des ALORS, et des coefficients de pondération dont on fini par perdre la justification, voire l’existence. Et … au bout du compte la prévision sera toujours fausse bien que la mesure des écarts entre la réalité et la prévision amène à une révision sans fin du modèle de calcul.

Modéliser parfaitement la prévision climatique de notre planète me paraît aussi impossible que de modéliser parfaitement le fonctionnement de notre univers. Si nous en étions capables, nous saurions parfaitement prévoir notre avenir dans toute sa globalité.

Il me semble que concernant la prévision du climat, il faudra accepter de fonctionner avec des prévisions qui seront toujours fausses – mais œuvrer pour qu’elles le soit le moins possible – accepter de prendre des décisions politiques sur ces bases, les réviser à une fréquence à définir pour les adapter aux évolutions du modèle de calcul.

Répondre
Gali 18 février 2024 - 2:22

Cet article est un plaisir dialectique à savourer lentement (je conseille même une relecture). Je me prends à rêver d’un univers médiatique où les auteurs auraient cette rigueur thématique, ce soucis de « bien dire » et cette intelligence de la langue. Bravo à Pascal Iris !

Répondre
Pascal IRIS 19 février 2024 - 11:33

Je remercie les personnes qui se sont intéressées en nombre à mon travail.
Pour répondre à M. STREL, je dirais que bien sûr il faut se « retrousser les manches » comme il l’indique, mais il faut surtout savoir pourquoi faire.
L’Europe et la France sont aujourd’hui brutalement poussées de fait vers la « décroissance » en raison d’une forme « d’obsession du CO2 ». L’alternative est le concept de « développement durable ». Il serait bien sûr trop long de développer, mais ces deux conceptions de l’avenir n’ont rien à voir. La première est de mon point de vue inutile et mortifère ( le reste du monde ne nous suit pas), la seconde peut se décliner de façon réaliste et positive.
Il faut réhabiliter la pensée critique, le réalisme et la nuance, bref faire en sorte que les Lumières qui vacillent aujourd’hui ne s’éteignent pas.

Répondre