6 affirmations erronées

Voici pourquoi les positions alarmistes sur le climat sont malhonnêtes.

Voilà plus de trente ans que je donne des conférences sur la « science du changement climatique ».

Quand je parle à un auditoire de non-experts et essaie de leur expliquer des choses comme la sensibilité climatique, le lien entre l’anomalie de la température moyenne mondiale et les « événements météorologiques extrêmes », ou encore que le réchauffement a, sur ces 18 dernières années, été presque négligeable ou très faible, etc.,  je puis sentir dans l’auditoire un réel manque d’intérêt et de compréhension.

Je vois de l’incompréhension et de la perplexité, quelles que soient les preuves que je présente comme quoi il ne s’agit pas d’une catastrophe, mais d’un phénomène qui peut être plutôt bénéfique.

On me demande comment c’est possible, puisque 97% des scientifiques sont d’accord, puisque les 18 dernières années ont été parmi les plus chaudes depuis 1880, puisque toutes sortes d’événements météorologiques extrêmes sont devenus plus fréquents, puisque les ours blancs sont en voie de disparition, tout comme la banquise arctique, etc. Pour faire bref : il y a quantité de preuves d’un réchauffement.

J’étais moi-même plutôt surpris qu’on pût admettre ces affirmations sans fondement réel et parfois même tout à fait malhonnêtes ; malheureusement, cela n’était, à vrai dire, pas évident pour mes auditoires.

Je vais, dans cet article, essayer d’expliquer pourquoi ces affirmations sont en fait des preuves de la malhonnêteté des positions alarmistes.

LE MANTRA DES 97% DE SCIENTIFIQUES

Le mantra ou « meme » ou poncif des « 97% »1 vient en réalité d’un titre de couverture d’un numéro de Newsweek de 1988 selon lequel « tous les scientifiques sont d’accord ». Cette assertion vise à donner au non-expert l’impression qu’il n’a nul besoin de comprendre la science. Exprimer son accord avec les 97% montrera que l’on est un « partisan de la science » et que l’on est supérieur à tous ceux qui « nient le désastre ».

Voilà qui suffit aux besoins psychologiques de bien des gens. Cette assertion a été formulée par nombre d’individus et peut être présentée de diverses manières. Une démystification en a été donnée en détail  par Bast et Spencer dans le Wall Street Journal.2

Un des tours de passe-passe est de poser les trois questions « la teneur en CO2 de l’air de l’atmosphère a-t-elle augmenté ? », « la Terre s’est-elle réchauffée (même un tout petit peu) ?  » et « l’homme  y  est-il pour quelque chose ? ».

Nous pouvons presque tous être d’accord avec ces affirmations, dont aucune  n’implique quelque danger évident.  Et pourtant, cet accord est prétendu valoir adhésion au catastrophisme !

Un autre tour de passe-passe est l’examen d’un grand nombre de résumés d’articles dont, en réalité, un petit nombre seulement signalent de réels dangers. Et si 97% de ce petit nombre adhèrent au catastrophisme, ce « 97% » est  prétendu se rapporter au grand nombre de résumés !

Un de mes exemples favoris est l’affirmation récente par le Christian Science Monitor (qui fut jadis un journal influent et respecté)3 :

Notons que des 70 000 articles sur le réchauffement climatique publiés en 2013 et 2014 dans des revues à comité de lecture, quatre auteurs seulement ont réfuté l’idée que les humains sont les principaux moteurs du changement climatique.

Il n’est, je crois, nul besoin  d’être un expert pour voir que cette affirmation est une bien étrange rêverie, de façon évidente et pour bien des raisons.

Même le groupe intergouvernemental des Nations Unies sur le changement climatique (ce groupe en général appelé IPCC/GIEC a été créé par les Nations Unies pour évaluer  de façon « scientifique » le changement climatique dû à l’action de l’homme) n’est pas d’accord avec ce poncif.

Malgré tout, je suis un peu surpris qu’il y ait eu besoin des entourloupes que je viens de rapporter.

Depuis que la question du « réchauffement climatique » a, il y a trente ans environ, été mise sur la place publique – et a immédiatement été intégrée au catéchisme du « politiquement correct »-, le financement gouvernemental de ce domaine a crû énormément ; ce financement a été fondé sur la croyance a priori en des effets catastrophiques.

Aujourd’hui presque tous ceux qui travaillent dans ce domaine  y sont entrés pour profiter de ces financements, et les gouvernements ont un monopole du financement de ce domaine.

On peut donc s’attendre à ce que tous ceux qui reçoivent ces financements se sentent obligés d’affirmer l’importance et la réalité du problème. Il est certain que s’y opposer serait suicidaire pour la carrière d’un jeune universitaire.

Et donc les études sur les « 97% » ont seulement à « bien » formuler les questions posées pour s’assurer de niveaux élevés de consentement à l’alarmisme, niveaux qui, si l’anonymat était garanti aux sondés, ne seraient peut-être pas aussi élevés qu’on le prétend.

LE MANTRA DES « ANNÉES LES PLUS CHAUDES DEPUIS QUE L’ON FAIT DES MESURES »

Comme dans toute manœuvre de diabolisation, on commence par la supposition ridicule que tout réchauffement, quel qu’il soit, et, ici, toute augmentation de la teneur de l’air en CO2, est mauvais et démontre que le pire va arriver bientôt.  Nous savons pourtant que ces deux énoncés sont faux.

Les gens prennent leur retraite dans la Sun Belt4 plutôt qu’en Arctique.

Du CO2 est insufflé dans les serres pour que les plantes croissent mieux et plus vite.

L’insistance sur « l’année la plus chaude depuis que l’on fait des mesures » semble essayer de répondre au fait que l’épisode de réchauffement observé entre 1978 et 1998 a visiblement cessé et que les températures sont quasi-constantes depuis 19985. Et donc si 1998 a été l’année « la plus chaude » toutes les années qui suivent le seront aussi.

Rien de cela ne contredit le fait que le « réchauffement » a cessé.

Pourtant beaucoup ont été amenés à croire que les deux affirmations ne peuvent être simultanément vraies.

Voilà qui suppose que le public est extrêmement crédule.

L’importance potentielle de la « pause » – et il est bien possible que ce ne soit pas une « pause » et que les températures se mettent à diminuer6 –  n’est jamais mentionnée et n’est que rarement comprise.

Son existence signifie simplement qu’il y a « quelque chose » qui est comparable au « forçage anthropique ».

Or l’attribution, par l’IPCC/GIEC de l’épisode de réchauffement de 1978 à 1998 (et de celui-là seulement7) à une cause humaine repose sur l’hypothèse – incorporée dans les modèles – qu’il n’existe pas de processus naturel comparable au « forçage anthropique ».

La focalisation sur les seules séries de températures mérite que l’on s’y arrête. Quelle est donc cette température que nous examinons ? Ce ne peut certainement pas être la température moyenne de surface : faire la moyenne des températures d’endroits aussi différents que la Death Valley8 et le mont Everest9 n’a pas plus de sens que faire la moyenne des numéros de téléphone d’un annuaire téléphonique, pour ceux qui se rappellent encore ces annuaires.

Ce que l’on calcule est la moyenne de ce que l’on nomme des « anomalies ».

On prend des moyennes sur trente ans des températures d’une station météorologique donnée et on calcule les écarts à cette moyenne sur trente ans, appelés « anomalies ».  Et ce sont ces « anomalies » qui sont moyennées sur tout le globe. Le seul exemple que je connaisse de travail illustrant les étapes de ce processus a été publié par feu Stan Grotch du Lawrence Livermore Laboratory.

Le plus grand nombre des scientifiques conclurait qu’il y a là entre les stations une forte compensation des anomalies et que le résultat est une compensation presque complète. Pourtant, pour éviter cette conclusion, on dilate l’échelle des températures par un facteur de presque dix pour rendre- en apparence – plus significatifs les changements minuscules vus sur la figure 1-b.

Le résultat est montré à la figure 1-c. Il y a beaucoup de bruit aléatoire sur cette figure 1-c et ce bruit donne une bonne idée des incertitudes de cette analyse (en gros +/- 0,2°C). Les présentations habituelles montrent des figures beaucoup plus lisses. Parfois, ce lissage découle de l’application d’une moyenne mobile. C’est aussi le cas des données employées par Grotch  en provenance du UK Meteorological Office, données relatives aux stations à terre

L’inclusion des données relatives aux océans conduit à des séries plus lisses mais l’exactitude des données en est plus mauvaise parce que les données océaniques mélangent des techniques de mesure tout à fait différentes : pour les navires anciens, mesure de la température de l’eau dans un seau jeté à la mer et ramené à bord, après la première guerre mondiale, mesures aux prises d’eau de mer servant au refroidissement des moteurs, puis mesures satellitaires de la température de peau de l’eau de mer – fort différente de la température de surface-, et enfin, températures mesurées par des bouées.

Notons encore que l’incertitude et la petitesse des changements laissent une grande latitude pour faire des ajustements et des corrections qui peuvent modifier radicalement l’allure du graphe de la série ;  l’incertitude n’est que rarement reportée sur ces graphiques.Ces difficultés sont résumées sur la figure 2 qui présente l’allure schématique, idéalisée, des observations de température et de leurs incertitudes. Nous voyons bien qu’à cause de l’arrêt de la croissance des températures en 1998,  18 des 18 années les plus chaudes  de la série des températures  ont, sur ce schéma, été les 18 dernières années.

Rendu à ce point on sera probablement confronté à des discussions sur les détails des mesures de température, qui ne feront que brouiller plus encore les cartes -ou « rendre l’eau plus boueuse »- si je puis dire.

Mais rien ne peut changer au fait que les changements de température dont on parle sont petits. Cette « petitesse » est bien sûr relative. Voyons trois façons de l’évaluer, trois approches.

Approche 1

La figure 3 montre les variations de température à Boston sur une durée d’un mois (du 9 février au 11 mars).

Les bandes verticales en bleu foncé montrent pour chaque jour  la plage des températures observées ; les barres en gris foncé donnent pour ce jour-là les moyennes « climatologiques » des températures min et max de la journée, et les barres en gris clair les records de froid et de chaud pour cette même journée. Au milieu court une ligne rouge  dont la largeur correspond à la plage de variation des températures moyennes globales sur les derniers 175 ans.

Voila qui suffit à montrer que les changements de température dont on parle sont petits en comparaison des changements que nous ressentons couramment.  Conservons ça en tête pour le cas où on vient nous dire que l’on « ressent » physiquement le « réchauffement global ».

Approche 2

La mesure qui suit est une comparaison entre le changement observé et celui que l’on nous dit attendre du « réchauffement par effet de serre ». Le CO2 n’est pas le seul gaz à effet de serre produit par l’homme. En prenant en compte tous ces « gaz à effet-de-serre », le GIEC/IPCC des Nations Unies trouve que nous en sommes juste au « forçage radiatif » attendu pour un doublement des teneurs de l’atmosphère en CO2; mais l’augmentation observée des températures n’a été que d’environ 0,8°.

Si donc les émissions du fait de l’homme étaient  responsables de tout le changement de température des derniers 60 ans,  la « sensibilité climatique »  serait bien moindre  que celle supposée par ceux des « modèles » dont la « sensibilité » est la plus faible ; cette « sensibilité climatique » est définie comme l’accroissement de la  « température mondiale moyenne » découlant d’un doublement de la teneur de l’air en CO; elle est dite être entre +1,5°C et +4,5°C10.

Avec une sensibilité faible, pas de problème ! Et comme l’IPCC/GIEC nous assure que l’homme n’est responsable que du « gros » du réchauffement observé, la sensibilité pourrait être plus faible encore.

La situation n’est peut-être pas si simple, mais le calcul montre que pour des modèles ayant une forte sensibilité on en est réduit à compenser une partie -et parfois une très grosse partie- du « forçage radiatif » par ce que l’on prétend être un refroidissement par des aérosols inconnus, réglés pour que le modèle ne s’écarte pas trop des observations des décennies passées. Un article récent dans le Bulletin de l’American Meteorological Society, intitulé The Art and Science of Climate Model Tuning (L’art et la science du réglage des modèles climatiques)11 montre qu’il y a en réalité un très grand nombre de réglages arbitraires pratiqués sur les modèles pour qu’ils ne s’écartent pas trop des observations passées.

Et mieux l’on connaît le forçage par les aérosols, plus des sensibilités climatiques fortes deviennent invraisemblables. Voilà qui est bien en accord avec le fait que les modèles qui nous prédisent un « réchauffement climatique dangereux » montrent tous un réchauffement bien plus fort après la période de calibration12.

C’est-à-dire que le réchauffement observé est petit par rapport à ce que nous prédisent ces modèles à l’origine de nos angoisses. C’est ce que montre la figure 4.

Comme je l’ai déjà dit, les incertitudes sur les observations permettent de leur appliquer des  « ajustements » importants. Un cas tristement  célèbre est celui des « ajustements » faits par la NOAA13 publiés dans un article de Karl et al. pour  remplacer la « pause » par la poursuite d’un réchauffement. Mais il a été facile de montrer que, même avec cet « ajustement », les modèles montrent toujours bien plus de réchauffement que les séries des observations, même « ajustées ».

De plus, la plupart des articles parus sur ce sujet réfutent l’ajustement fait par Karl et al. qui, par hasard sans doute, a été publié avec force publicité juste avant la conférence de Paris sur le climat (fin 2015).

Approche 3

La troisième approche est quelque peu différente. Au lieu d’argumenter que le changement n’est pas si petit que ça, on dit que le changement est « sans précèdent ».

C’est ce que voulait montrer la tristement célèbre  « crosse de hockey »14  de Michael Mann. Ce dernier a employé des cernes de croissance de troncs d’arbres  de l’espèce de pins Bristlecone15 qui permettent des estimations de la température dans l’hémisphère nord remontant sur des siècles. Il a calibré les données des cernes de croissance avec les observations des stations météorologiques de surface sur une période de trente ans et employé cette calibration pour réévaluer les températures d’un passé distant de façon à faire disparaître la période médiévale chaude (ou « optimum climatique médiéval »).

Cette reconstruction montrait des températures « plates » sur le dernier millénaire. Les tests habituels pour cette procédure sont de vérifier si les observations postérieures à la période de calibration sont correctement retrouvées… mais il n’était pas possible de retrouver le réchauffement montré par les stations météo  de surface. La solution apportée à cette difficulté a été absolument simple et stupide : la série d’observations tirée des cernes d’arbres a été coupée à la fin de la période de calibration et a été remplacée par les observations des stations météo de surface.

Dans les mails du Climategate (Climategate est le nom donné à la publication d’un très grand nombre de courriers électroniques  envoyés par divers scientifiques « climato-alarmistes »  discutant entre eux sur la meilleure façon de supprimer les opinions différentes des leurs, de faire disparaître les observations qui les gênent, d’intimider les éditeurs de revues scientifiques, de manipuler les données d’observation, etc.), cette opération est appelée Mann’s trick ou tour de passe-passe de Michael Mann.

Toute la discussion qui précède visait à souligner que ce qui compte n’est pas le réchauffement lui-même mais son ampleur. Il faut absolument éviter la tendance habituelle des « environnementalistes » à prétendre que tout ce qui pourrait être mauvais en grande quantité ou à grande échelle doit être à tout prix évité si faible que soit le phénomène réel.

En réalité, un peu de réchauffement serait fort bénéfique et pour bien des raisons.

Si vous avez assimilé ce qui précède vous serez capable d’analyser les annonces faites dans les médias et de constater que, malgré des excès rhétoriques, l’auteur de l’annonce ne dit pratiquement rien, et même, souvent, présente faussement ce qu’affirme l’IPCC/GIEC.

LE MANTRA DES ÉVÉNEMENTS MÉTÉOROLOGIQUES EXTRÊMES

Tout prévisionniste météo de base sait que des événements extrêmes se produisent quelque part sur le globe pratiquement tous les jours. La tendance actuelle à attribuer au changement climatique ces événements qui se produisent tout normalement est évidemment très malhonnête.

Roger Pielke Jr. a écrit un livre16 détaillant ce fait d’observation qu’il n’y a, pour chaque type d’événement extrême (dont les tornades, les ouragans, les sécheresses, les inondations, etc.), aucune tendance à l’augmentation du nombre d’occurrences et même, en fait, pour certains types d’événements une moindre fréquence.

Même l’IPCC/GIEC des Nations Unies a reconnu qu’il n’y avait aucune raison d’attribuer ces événements au « changement climatique anthropique ».17

  • Les températures extrêmes

Le mantra des températures extrêmes contredit en fait et les observations et les fondements de la météorologie.

Des températures extrêmes se produisent en un lieu quand le mouvement de l’air y transporte de l’air venant  des zones de la carte les plus froides ou les plus chaudes. Dans un  « climat plus chaud » on doit s’attendre à une moindre différence de température entre les tropiques et les hautes latitudes. Ce qui nécessairement réduit la dynamique entre les températures extrêmes.

De plus et c’est important, les mouvements qui transportent ces masses d’air viennent d’un processus appelé instabilité barocline, qui elle même découle de la différence des températures entre tropiques et hautes latitudes.

Et donc, dans un monde plus chaud, ces vents seront plus faibles  et moins susceptibles de transporter sur de longues distances des masses d’air à des températures extrêmes.

Les affirmations sur la venue de températures extrêmes plus fortes ignorent simplement la physique de base et ne sont acceptées ou admises que parce que l’auditoire est ignare.

Ces affirmations sur les événements météorologiques extrêmes transcendent l’utilisation habituelle d’affirmations trompeuses. Elles correspondent très souvent à l’opposé exact de ce qui se passe en réalité.

L’objectif est d’être aussi terrifiant que possible, et tant pis s’il faut affirmer l’exact opposé de la réalité !

  • La montée du niveau des mers

En moyenne globale, le niveau des mers a, depuis un millénaire, monté d’environ 15 cm par siècle. Avant les satellites la mesure se faisait avec des marégraphes qui enregistrent le niveau de l’eau par rapport au niveau du sol.

Malheureusement le niveau du sol change aussi,  et comme le notent Emery et Aubrey dans leur livre18, c’est la tectonique qui, en bien des endroits, est la principale cause de changement du niveau relatif de l’eau et de la terre.

En 1979 on a commencé à employer des satellites pour mesurer le niveau réel des mers. Les résultats ont été fort proches des estimations tirées des marégraphes, légèrement plus forts, mais  Wunsch  et al.19montrent que personne ne peut dire que les petites différences dues au changement de méthode de mesure représenteraient une accélération de la montée du niveau des mers20.

Quoi qu’il en soit, les changements sont fort petits en comparaison des affirmations qui veulent suggérer un changement climatique catastrophique.

Pourtant, au début des années 1980 déjà, des alarmistes tels que St. Schneider ont compris que le niveau des mers serait un moyen tactique commode, facilement compris, pour susciter de la peur. Que des personnes comme Al Gore et Susan Solomon (naguère chef du WG1 Scientific Assessment (évaluation scientifique) du GIEC/IPCC) aient lourdement investi dans des propriétés en bord de mer montre bien que le sujet est un thème de propagande et non pas une question scientifique.

  • La banquise arctique 

Des satellites observent la banquise arctique (et l’antarctique aussi) depuis 1979. Chaque année voit un cycle annuel très prononcé : la couverture, quasi-totale en hiver est, en été, fortement réduite. Depuis 1979 il y a eu une tendance significative à la diminution de la banquise d’été (et l’inverse en Antarctique), mais ces dernières années, la couverture en fin d’été s’est apparemment stabilisée.

Pour discuter de changements climatiques, une durée de 40 ans est, bien sûr, plutôt courte. Cependant on a vu des tentatives – inévitables- d’extrapolation de tendances observées sur des périodes courtes à l’appui d’affirmations que l’Arctique devrait être déjà libre de glaces. Évidemment extrapoler des tendances observées à court terme n’est pas approprié.

Extrapoler les variations des températures de l’air proche de la surface observées entre l’aube et le crépuscule amènerait, en peu de jours, à un climat bouillant.

Extrapoler la surface estivale de la banquise arctique pourrait bien être tout aussi stupide.

De plus, quoique la couverture satellitaire soit incomparablement meilleure que ce que l’on avait avant, les données sont loin d’être parfaites. Les satellites peuvent confondre de la glace couverte d’eau de fonte avec une mer libre de glace. De plus, la température n’est pas la cause principale de la diminution de la banquise estivale. Cette banquise d’été est plutôt  fragile et des changements de vents jouent un rôle important en expulsant la glace flottante des mers arctiques.

L’association entre changement de la banquise d’été et changement climatique est, en soi, douteuse. Les « modèles climatiques numériques » ne prédisent pas de façon claire ce qui est observé. On ne saurait donc dire que le comportement observé de la banquise confirme une quelconque de ces prédictions.21

Des pressentiments sur la disparition de la banquise arctique ont été publiés en 192222 ce qui suggère que les phénomènes observés  ne sont pas nouveaux. Les observations venaient alors du voisinage du Spitzberg. Un biologiste marin qui est aussi un activiste militant « pour le climat » a suggéré  que ce n’était qu’un phénomène local, mais les éléments qu’il avance ne permettent pas de conclure. Entre autres, cet auteur a très soigneusement « trié » ce qu’il appelle des preuves.

Tout ce que l’on peut dire, à ce point, est que le comportement de la banquise arctique est l’un de ces nombreux phénomènes que nous offre la Terre, et pour lesquels nous n’avons ni une compréhension physique, ni de longues séries d’observations.

De plus l’ouverture du passage du nord-ouest (au nord du Canada) a longtemps fait rêver. Il est bizarre qu’on la considère maintenant comme terrifiante.

Bien sûr comme l’a noté Mencken23  « Tout l’objectif de la pratique politique est de faire en sorte que la populace ait, en permanence, quelque chose à redouter et donc qu’elle réclame bruyamment qu’on assure sa sécurité.  On lui fait croire à toutes sortes de menaces et de maléfices, la plupart imaginaires ».

Le mouvement environnementaliste a fait sienne cette tactique, bien au delà de ce que Mencken observait.

LE MANTRA DES OURS POLAIRES

J’ai tout lieu de penser qu’Al Gore a fait faire beaucoup d’études de type focus group24 pour découvrir l’efficacité remarquable de l’idée que le changement climatique va mettre en danger les ours polaires.

L’usage qu’il a fait de l’image pathétique – à l’évidence fabriquée par Photoshop – d’un ours blanc sur un  morceau de glace flottant25 le suggère très fortement. Comme le souligne Susan Crockford26, spécialiste de l’évolution des ours polaires, la population des ours blancs a, dans le passé, diminué à cause de la chasse et de l’exploitation commerciale de leur fourrure. Des mesures de protection ont eu un plein succès et amené une augmentation des populations telle que la chasse a de nouveau été autorisée.

Il n’y a aucune indication, aucune preuve, que les changements de la banquise arctique estivale aient eu un quelconque effet négatif sur les populations d’ours polaires : ces ours peuvent nager plus de deux cents kilomètres ; on ne voit pas pourquoi moins de glace les gênerait.

Mais, pour la petite communauté d’experts des ours polaires, les inquiétudes propagées sur le « climat »  ont eu un intérêt évident.

LE MANTRA DE L’ACIDIFICATION DES OCÉANS

On a là encore une de ces affirmations pas claires qui semblent effrayantes mais ne résistent pas à l’examen.

Depuis la terreur fabriquée des « pluies acides » on a compris que le public est facilement manipulé et terrorisé par toute annonce avec le mot « acide ».

En réalité l’océan est basique et non pas acide (car son pH est toujours nettement supérieur à 7), et il est absolument impossible que des teneurs croissantes de l’air en CO2 réduisent à 7 (la neutralité) le pH de l’océan (rappel : le pH chiffre le caractère acide ou basique : un pH supérieur à 7 est basique, un pH inférieur à 7 est acide). Les changements imaginés renvoient  à des pH océaniques -très- légèrement moins basiques.

Une description correcte des phénomènes ne susciterait nulle frayeur. Comme toujours, il y a tant d’erreurs et de faussetés dans cette affirmation d’une acidification des océans que les analyser demanderait un article assez long. Je recommande la source suivante : Patrick Moore Ocean « acidification » alarmism in perspective, (Nov. 2015, 28 pages)

LE MANTRA DE LA DISPARITION DES RÉCIFS CORALLIENS

La prétendue mort des récifs de coraux est en partie liée aux fables sur « l’acidification » exposées ci-dessus, et comme on le peut voir, la relation causale est presque exactement l’inverse de ce que l’on nous raconte.

Il y a aussi l’histoire selon laquelle le réchauffement lui-même causerait le blanchiment des coraux. On verra une présentation alarmiste typique dans http://www.nature.com/nature/journal/v543/n7645/full/nature21707.html.

L’accès en est payant mais la plupart des bibliothèques universitaires ont un accès à Nature.

Une réponse argumentée à ce papier est  http://landscapesandcycles.net/falling-sea-level–bleached-great-barrier-reef.html

Jim Steele, l’auteur de cet article, explique que le blanchiment a des causes autres que le seul réchauffement et n’est pas du tout l’annonce de la mort des coraux qui ont les moyens de récupérer. L’article http://www.breitbart.com/big-government/2017/04/10/delingpole-gullible-fools-believe-great-barrier-reef-dying/ est un peu polémique mais, sur le fond, est correct.

LE RÉCHAUFFEMENT CLIMATIQUE, CAUSE DE TOUT ET DE N’IMPORTE QUOI

Comme on vient de le voir, il y a une tendance à rendre le réchauffement climatique responsable de tout ce qui est déplaisant. Nous allons voir plus loin encore une illustration de ces absurdités.

Ça n’a pas empêché l’Environment Protection Agency américaine d’employer ce genre d’argument pour affirmer que sa politique de  « lutte contre le changement climatique » aura des effets sanitaires bénéfiques.

Devant tant d’affirmations je crains le « à quoi bon ? » Personne n’a assez de temps et d’énergie pour réfuter ce très grand nombre d’affirmations.

Heureusement beaucoup sont, de toute évidence, absurdes. La revue Nation a publié récemment ce que l’on a sans doute écrit de mieux dans ce genre :

Juan Cole (18 avril 2017) : cet autre gaz toxique qui tue des Syriens : les émissions de dioxyde de carbone.

Si Trump et ses sbires s’intéressaient vraiment aux enfants tués par des gaz toxiques, ils n’essaieraient pas de rejeter plus encore de CO2 dans l’atmosphère.

Le CO2, notons le d’abord, n’est pas du tout toxique. Au contraire le CO2 est essentiel à la vie sur notre planète et des teneurs aussi élevées que 5000 ppm sont, dans nos sous-marins, considérées comme sans danger.

L’article de Nation  est typique en ce qu’il énonce en peu de lignes beaucoup d’affirmations très bizarres. Il argumente qu’ « un emballement de l’effet de serre » amène sur Vénus des températures de surface supérieures à la température de fusion du plomb27. Pourtant personne n’affirme que la Terre puisse être sujette à un tel « emballement ».

La planète Mars  dont l’atmosphère a trente fois plus de CO2 que la Terre est plus éloignée du  Soleil et a une surface fort froide.

Mais comme nous venons de le voir, bien souvent, la réalité est sans importance pour ceux qui font de terroriser le public leur activité principale.

REMARQUES POUR CONCLURE

Une accumulation d’affirmations fausses et/ou trompeuses est souvent appelée  » preuve irréfutable  » de la catastrophe qui va arriver.

Sans ça, on pourrait légitimement se demander s’il y a même seulement une preuve.

Quoi qu’il en soit, le changement climatique sert de justification à de nombreuses politiques publiques qui presque toutes semblent avoir fait beaucoup plus de mal que le supposé changement climatique (voir http://www.thegwpf.com/every-climate-initiative-imposed-on-us-by-politicians-has-ended-in-disaster/)  et vont évidemment faire encore bien plus de mal.

Le mieux que l’on puisse dire de ces efforts est qu’il est reconnu par tous que, malgré leur coût immense, ils n’ont que fort peu d’effet sur les teneurs de l’air en CO2 et sur les températures. Voilà plutôt une bonne nouvelle, car il y a bien des preuves que ces changements des teneurs de l’air en CO2 et des températures ont des effets bénéfiques, tandis que l’énorme gaspillage d’argent n’est pas du tout bénéfique.

Je n’ai pas passé beaucoup de temps sur les détails de la science, mais voici un point qui devrait exciter l’esprit critique de tout lecteur intelligent : le système que nous considérons est constitué de deux fluides turbulents en interaction, l’air et l’eau ; ils couvrent une planète en rotation qui reçoit du soleil une quantité de chaleur variable selon la latitude. Le constituant vital de l’atmosphère est l’eau sous ses phases liquide, solide et vapeur et les changements de phase ont d’énormes conséquences.

Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 200 Watt par mètre carré. Un doublement de la teneur en CO2 modifierait ce budget de 2% environ.

Mais des modifications très mineures de la couverture nuageuse et d’autres caractéristiques encore ont le même effet, et ces modifications se produisent tous les jours.

Dans ce système complexe avec un grand nombre de facteurs, quelle vraisemblance y a-t-il que le climat (qui lui-même découle d’un grand nombre de variables et non pas seulement d’une anomalie des températures calculée en moyenne globale) soit piloté par la perturbation de 2% d’une seule variable ?

Le croire serait quasiment croire en la magie. Mais on vous dit que c’est croire en la « Science ».

Cette affirmation devrait vous prévenir qu’il y a là quelque chose qui ne va pas.

La Science est en effet une façon de poser des questions et non pas un système de croyances !

Richard Lindzen est Professeur des Sciences de l’atmosphère, titulaire de la chaire Alfred P. Sloan, Emérite, au Massachusetts Institute of Technology.

Sur le web

  1.  R. Lindzen emploie le mot « meme » qui désigne un élément culturel reconnaissable, répliqué et transmis par l’imitation du comportement d’un individu par d’autres individus (Source: http://www.linguee.fr/francais-anglais).https://fr.wikipedia.org/wiki/M%C3%A8me. NdT 
  2.  Commentaire publié le 26 mai 2014. https://www.wsj.com/articles/joseph-bast-and-roy-spencer-the-myth-of-the-climate-change-97-1401145980?tesla=y.
    Voir aussi :
    http://www.drroyspencer.com/2014/05/ill-see-your-97-percent-and-raise-you-3-percent/
    https://wattsupwiththat.com/2014/05/30/the-myth-of-the-97-climate-change-consensus/
    https://www.cfact.org/2014/05/30/the-myth-of-the-97-climate-change-consensus/
  3.  http://www.csmonitor.com/Science/2017/0330/How-climate-skeptics-are-trying-to-influence-200-000-science-teachers?cmpid=TW

    « For the record, of the nearly 70,000 peer-reviewed articles on global warming published in 2013 and 2014, four authors rejected the idea that humans are the main drivers of climate change. The atmospheric carbon concentration is 44 percent higher than it was in pre-industrial times (and rising), and 2016 was the planet’s hottest year ever, breaking the previous record holders 2015 and 2014. » 

  4.  La « Sun Belt » (en français la « Ceinture du Soleil ») qui se compose des États du Sud et de l’Ouest des États-Unis présentant un dynamisme économique, un cadre de vie et une zone ensoleillée agréable (wikipedia). 
  5. Pour la série des mesures satellitaires de la basse troposphère en moyenne globale  dite RSS/MSU et publiée par REMS la meilleure approximation linéaire de janvier 1999 à décembre 2015  est 0,23°C -0,00046 (t-1999) soit moins 0,046°C par siècle équivalent à une totale absence de réchauffement (aussi appelé « pause » ou hiatus » du réchauffement) ; sur janvier 1999 à décembre 1997 cette meilleure approximation linéaire est -0,03°C + 0,0082 (t-1979) soit +0,82°C par siècle. Les années 1998 et 2016  sont celles de deux grands El Niño  avec certains mois à plus de 0,7°C par rapport aux mêmes mois des années antérieures (NdT). 
  6.  Après le grand El Niño de 2016, les températures « mondiales moyennes » sont en février 2017 revenues -ou presque- à leur valeur moyenne sur 1999-2015. Ci-dessous le tracé de deux séries des anomalies des températures « mondiales » moyennes RSS-MSU de la basse troposphère  et HadCRUT de la surface. Elles n’ont pas la même référence et sont décalées entre elles de quelques dixièmes de degré : moyennes sur 1999-2015 de 0,26°C pour la première et de 0,49°C pour la seconde (NdT). 
  7. Les réchauffements très comparables observés de 1860 à 1878 et de 1920 à 1941 ne sauraient être attribués  aux « émissions anthropiques » venant de combustibles fossiles car ces émissions étaient alors extrêmement faibles (de 100 à  200 M t-C/an vers 1870, 1000 M t-C/an vers 1940) comparées à celles de 1978-1998 (6000 M t-C/an), elles mêmes de l’ordre de 3% des dégazages annuels naturels de CO2  par les océans (en zone intertropicale) et par les sols (de l’ordre de 160 000 M t-C/an). NdT 
  8.  Vallée de la mort en Californie, vers 36°N, avec des moyennes des températures maximales sur 24 heures atteignant 46°C en juillet (NdT). 
  9.  Températures moyennes au sommet (8848 m)  de l’ordre de -35°C en hiver et -17°C en juillet (NdT). 
  10.  Cette plage dont les bornes sont dans un rapport un à trois a été décrétée en 1979 par une commission  présidée par le météorologiste américain Jules Charney ; les dizaines de milliards de dollars dépensés depuis  par les divers États pour le financement de la « recherche climatique » n’ont pas permis de mieux préciser cette fourchette qui figure encore et toujours dans le dernier rapport du GIEC (AR5, 2013).

    Ce concept fait l’hypothèse que la modulation de la teneur en vapeur d’eau  des hautes couches de la troposphère (celles  d’où la vapeur d’eau rayonne effectivement vers le cosmos et assure) n’efface pas en quelques heures ou jours les effets des variations sur la même période des teneurs de l’air en CO2. 

  11.  http://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-15-00135.1 
  12.  La période de calibration est par exemple de 140 ans (1850-1990) et les multiples paramètres ajustables sont ajustés pour que l’anomalie de la température moyenne global ne s’écarte pas trop des observations ; la période de prédiction ira alors de 1991 à, par exemple, 2100. 
  13.  La NOAA National Oceanic and Atmospheric Administration est une agence du département (ministère) du commerce des USA, chargée entre autres de la météorologie. Une enquête a été lancée par une commission du Sénat des États-Unis.
    https://science.house.gov/news/press-releases/former-noaa-scientist-confirms-colleagues-manipulated-climate-records
    http://www.dailymail.co.uk/sciencetech/article-4192182/World-leaders-duped-manipulated-global-warming-data.html 
    http://www.nationalreview.com/article/444942/john-bates-whistleblower-climate-scientist-smeared-global-warming-advocates
    La revue Science a publié un article d’un journaliste visant à minimiser l’ampleur de la fraude : http://www.sciencemag.org/news/2017/02/how-culture-clash-noaa-led-flap-over-high-profile-warming-pause-study
    Notons que les données et même les programmes de calcul employés par Karl et al. ont « bizarrement » disparu à cause « d’une panne d’ordinateur », ce en violation de toutes les procédures d’archivage des données et des programmes réglementées dans des institutions qui archivent de très gros volumes de données.
    Ces procédures sont en partie décrites dans https://judithcurry.com/2017/02/04/climate-scientists-versus-climate-data/
  14. En anglais « hockey stick » ; le lecteur curieux trouvera une documentation complète sur le site https://climateaudit.org/multiproxy-pdfs/ tenu par le découvreur de cette fraude, ingénieur des mines et canadien, ce qui explique la référence au hockey sur glace (NdT). 
  15.  Aussi appelé Pinus aristata longaeva, il pousse entre 2100 m et 3700 m dans les montagnes de l’ouest des USA et a une longévité exceptionnelle, de 4000 ans à 5000 ans. 
  16.  Roger Pielke Jr. The Rightful Place of Science: Disasters and Climate Change Paperback, 124 pages – November 1, 2014. 
  17.  http://www.ipcc.ch/report/srex/ MANAGING THE RISKS OF EXTREME EVENTS AND DISASTERS TO ADVANCE CLIMATE CHANGE ADAPTATION, 2012, Cambridge University Press, 582 pages (31 M Octets). 
  18.  Emery K. O., Aubrey D. G. Sea Levels, Land Levels, and Tide Gauges, Springer, 1991, 237 pages. 
  19.  Carl Wunsch,  Rui M. Ponte, Patrick Heimbach, Decadal Trends in Sea Level Patterns : 1993–2004 Journal of Climate, AMS, 15 Dec. 2007,  pp. 5889-5911

    Extrait du résumé :  « Estimates made here produce a global mean of about 1.6 mm yr−1, or about 60% of the pure altimetric estimate, of which about 70% is from the addition of freshwater ». 

  20.  Les marégraphes équipés de GPS de haute précision permettent des calculs du mouvement du sol et du niveau des mers et même de la variation de la quantité d’eau.

    Voir articles du professeur Guy Wöppelmann: http://marine-climate.uib.es/SLR2015/presentations/Woppelmann.pdf  Wöppelmann, G. et al. Rates of sea-level change over the past century in a geocentric reference frame. Geophysical Research Letters 36: 10.1029/2009GL038720.

    Autres articles sur http://www.co2science.org/articles/V12/N40/C1.php 

  21.  Depuis 1980 les modèles prédisent, pour un doublement de la teneur de l’air en CO2, en Arctique, +12°C en hiver,  mais seulement +2°C en été. Les observations pour la basse troposphère polaire (série UAH MSU v6) sont rapportées aux figures ci-dessous pour décembre et pour janvier.
    Les +12°C en hiver dits par les « modèles » pour un doublement de la teneur en CO2 donnerait, sur ces mois d’hiver, sur 1978-2017, selon les formules usuelles 12°C ln(403 ppm / 335 ppm) / ln(2) = + 3,2°C … qui ne sont pas du tout observés sur les figures ci-dessus ! 
  22.  https://docs.lib.noaa.gov/rescue/mwr/050/mwr-050-11-0589a.pdf
    You ask, I provide. November 2nd, 1922. Arctic Ocean Getting Warm; Seals Vanish and Icebergs Melt. 
  23.  Henry Louis Mencken (1880-1956) journaliste américain. 
  24. Dans le monde du marketing, les focus groups, ou réunions de consommateurs, sont perçus comme des outils privilégiés afin de procéder à une analyse concernant les nouveaux produits et services.

    Le focus groupe permet aux entreprises qui le désirent de développer, tester et discuter des noms, des matériaux de conditionnement, des emballages, avant de les commercialiser. Cette démarche permet aussi de recueillir des informations sur le potentiel du marché et la réaction du public, pour que le produit ou service soit largement accepté. (Wikipedia) 

  25.  http://www.istockphoto.com/fr/photo/dernier-ours-polaire-gm135183496-4095333 
  26.  Son site est https://polarbearscience.com/ 
  27.  La température de fusion du plomb est 327°C.

    La température de surface de Vénus, 462°C, est une conséquence de la masse de son atmosphère 100 fois celle de l’atmosphère de la Terre.

    La relation entre température et pression T/Tref = (P/Pref) R/(Cp+|Ch|) vaut sur Terre T/ (255 K) = (P/(0,53 atm))0,19 et sur Vénus T/(243 K) = (P/(0,1 atm))0,16 avec en surface une pression P=1 atmosphère sur Terre contre P= 92 atmosphère sur Vénus.

    Les 255 K et 243 K sont les Tref , températures équivalentes de rayonnement de la couche qui assure le gros du rayonnement de la planète vers le cosmos et Pref  la position de ces couches, respectivement vers 5 km et vers 60 km. Le gradient de température, g/(Cp+ |Ch|)  entre cette couche  et la surface est de 6,5°C/km sur Terre et de 8,2°C/km sur Vénus, d’où  les températures de surface de 255 + 5 x 6,5 = 287,5 K (14,4°C) sur Terre et  243 + 60 x 8,2 = 735 K (462°C) sur Vénus.