Accueil > 02 - SCIENCES - SCIENCE > Géodynamique et climatologie de la Terre - Sauvegarde de la planète > Climato-sceptique et chaos déterministe du climat

Climato-sceptique et chaos déterministe du climat

dimanche 21 octobre 2012, par Robert Paris

Tout le monde a déjà vu les feuilles d’un arbre s’agiter dans le vent. Tous ont pu voir qu’à de certains moments c’est telle ou telle feuille ou tel rameau qui bouge, puis cesse, et qu’à l’instant suivant ce peut – ou non - devenir celle ou celui d’à côté. Certaines rafales affectent l’arbre entier, certaines quelques branches, d’autres une seule et puis plus rien ne remue cependant que d’un coup, tout repart à nouveau, par exemple…

Si ce vent demeurait pourtant rigoureusement le même à chaque instant, parfaitement constant dans le temps, chaque élément de l’arbre atteindrait presque aussitôt une position d’équilibre déterminée d’un côté par sa rigidité propre et de l’autre par le frottement qu’exerce le vent sur lui : plus rien ne bougerait plus alors. Il en va de même pour un champ de blé mûr, dans lequel chaque épi ploierait jusqu’à ce que sa résistance s’oppose exactement à la tension de ce vent stable, puis il ne bougerait plus.

Mais tout remue sans cesse et ceci montre qu’au vent moyen, fort ou faible, s’ajoutent des fluctuations, bourrasques, rafales ou risées, éminemment et rapidement variables dans le temps. Et dans l’espace aussi, puisque les mouvements désordonnés du tronc, des branches, des rameaux et des feuilles semblent indépendants les uns des autres et que tout ceci n’est pas seulement un mouvement d’ensemble.

La turbulence est précisément l’existence, dans l’écoulement d’un fluide, de fluctuations désordonnées dans l’espace et dans le temps.

On raconte qu’à la fin de sa vie, on avait demandé au célèbre physicien Werner Heisenberg (1901-1976), par ailleurs responsable du programme nucléaire de l’Allemagne nazie, ce qui lui avait en physique posé le plus de difficultés. L’électrodynamique quantique, aurait-il répondu, et l’eau qui coule du robinet, ajoutant « pour le premier problème, je suis assez optimiste, mais pour ce qui concerne la turbulence des fluides, je suis un bon chrétien et je ne veux pas mettre dieu dans l’embarras ».

L’EXPERIENCE DE REYNOLDS (1883)

Dès 1883, Osborne Reynolds (1842-1912) avait pourtant déjà malmené dieu, par une expérience assez rudimentaire : il faisait circuler de l’eau dans un tube transparent en libérant un colorant au milieu du tuyau, par un fin dispositif d’émission. Pour des vitesses très faibles et de petits diamètres du tube, le colorant révélait la nature lisse et régulière de l’écoulement alors baptisé « laminaire » puisque s’effectuant par lames ou nappes fluides glissant calmement les unes le long des autres. Pour de plus gros diamètres ou de plus grandes vitesses, l’écoulement -dit alors « turbulent »- s’effectuait de manière désordonnée et chaotique, tel le mouvement d’une foule, que le latin dénomme justement « turba ».

Un peu plus précisément, il montra que l’apparition de la turbulence dépend d’un nombre sans dimension, maintenant dit « nombre de Reynolds », égal au produit de la vitesse moyenne de l’écoulement par le diamètre du tube divisé par la viscosité du fluide. En dessous d’une valeur critique de l’ordre de 2300, l’écoulement demeure laminaire. Il devient turbulent au delà. Dans les équations de la mécanique des fluides, expression mathématique du principe fondamental de la mécanique, ce nombre de Reynolds représente le rapport des forces d’inertie aux forces de frottement visqueux. La viscosité stabilise donc l’écoulement tandis que l’inertie le perturbe, ou plutôt que les effets des perturbations sont décrits par le terme d’inertie.

Compte tenu de ce qui précède, les écoulements strictement laminaires demeurent rarissimes dans la nature. On en cite couramment pour exemples ceux de la sève des arbres et du sang des capillaires : faibles vitesses, diamètres infimes et très grandes viscosités… Bien que cette approximation n’ait pas grand sens, on peut évaluer les nombres de Reynolds des écoulements des fluides géophysiques, dans l’atmosphère et dans les océans : les dimensions sont supérieures à 1000 kilomètres (106 mètres), les vitesses de l’ordre du mètre par seconde dans l’océan et de 10 mètres par seconde dans l’atmosphère et les viscosités de l’ordre de 10-4 m2/s pour l’air et 10-6 m2/s pour l’eau. Les nombres de Reynolds en question sont donc pour ces deux milieux largement supérieurs à des valeurs de l’ordre de 1010. Ceci suggère ce que confirme par exemple l’examen d’animations des mouvements de l’atmosphère : les écoulements géophysiques sont largement dominés par la turbulence et ne peuvent en aucune manière être considérés comme laminaires.

TURBULENCE ET DIFFUSION

La première conséquence purement physique de ce constat porte sur la diffusivité ou aptitude au mélange, car la turbulence est susceptible de multiplier par plusieurs puissances de dix les valeurs « moléculaires » des coefficients de diffusion. Une application courante et assez universelle permet d’appréhender cette propriété : il existe en effet au moins deux manières de sucrer son café. Une première méthode consiste à déposer un sucre dans la tasse pleine et attendre que l’agitation brownienne des molécules ait effectué le mélange du sucre et du café. C’est alors la diffusion « moléculaire » qui assure le flux de sucre depuis les zones les plus sucrées vers celles qui le sont moins, au terme de la loi de Fick (1855) qui relie les flux aux gradients de concentration. Il est clair que le café sera froid bien avant d’être uniformément sucré. Une deuxième méthode, plus courante, consiste à s’emparer d’une cuiller et à agiter le contenu de la tasse aussitôt déposé le morceau de sucre, c’est à dire d’y introduire de la turbulence. Mais presque tous perçoivent intuitivement l’idée qu’un mouvement régulier n’est pas très turbulent : quelqu’un qui créerait en tournant sa cuiller un unique tourbillon parfait dans sa tasse aurait rapidement l’idée de le briser par un rapide retour en arrière ou toute autre forme de mouvement plus complexe. Là, le café sera uniformément sucré bien avant d’être froid, et par le seul effet de la turbulence créée par les mouvements de la cuiller. L’importante turbulence des fluides géophysiques fait donc de l’atmosphère et des océans des milieux éminemment diffusifs, comme un café bien agité.

Cette aptitude de la turbulence à diffuser les diverses grandeurs conduit le plus souvent à une approximation tellement grossière qu’elle est en fait une erreur grave et courante. Cette approximation consiste à décrire les effets diffusifs de la turbulence de la même manière que ceux de l’agitation moléculaire, en introduisant un « coefficient de diffusion turbulente » beaucoup plus important que le coefficient de diffusion purement moléculaire. Cette approche attribue de la sorte au fluide une propriété qui appartient en fait à l’écoulement : on peut mesurer dans une éprouvette le coefficient de diffusion thermique de l’air atmosphérique. On ne peut évidemment pas y évaluer sa valeur en régime turbulent réel… Le problème est infiniment plus compliqué, et c’est le cas de le dire.

NATURE DE LA TURBULENCE

De nombreux artistes comme Van Gogh, Utagawa et Léonard de Vinci, pour ne citer qu’eux, on tenté de représenter la turbulence. Contraints par la nature de leur art à figer les mouvements, ils en ont été « réduits » à peindre ou dessiner quelques tourbillons de tailles différentes, mais forcément peu nombreux. Seul Léonard de Vinci, dans son « torrent » s’approche d’une réalité dans laquelle ces « tourbillons » sont si nombreux et de tailles si diverses que le dessin suggère bien le chaos turbulent. Mais l’idée même de « tourbillon » porte sur quelque chose de bien identifié et -somme toute- d’assez circulaire et régulier pour ne pas évoquer correctement l’image d’une turbulence réelle. A la place de termes comme « volutes » ou « nappes », les scientifiques ont préféré celui de « structure », qui n’évoque aucune forme et laisse place à de très rapides fluctuations temporelles.

En 1992, un cargo pris dans une tempête perdit dans l’Océan Pacifique un conteneur mal fermé rempli de 29 000 canards en plastique destinés au bain des bébés. Par la suite, on découvrit certains de ces canards dans l’Océan arctique, au Groenland, en Grande-Bretagne et sur les côtes Est du Canada… Il est intéressant d’analyser de manière statistique, c’est à dire « en moyenne », les causes susceptibles d’écarter de telle sorte des objets initialement très voisins. Soient donc considérés deux canards dont la distance, quelconque, est notée « d » à un instant donné. Les structures turbulentes dont l’échelle est beaucoup plus petite que « d » demeurent sans grande influence statistique sur la distance entre les deux canards considérés. Elles les agitent indépendamment l’un de l’autre. Inversement, les structures turbulentes dont l’échelle est très grande devant « d » transportent en moyenne l’ensemble des deux canards sans en modifier la distance. Ce sont donc en fin de compte essentiellement les structures d’échelle « d » qui influent le plus sur la distance des deux canards. Si ces canards sont susceptibles de s’écarter de plus en plus, comme c’est ici le cas, c’est donc qu’il existe dans l’océan des structures turbulentes de toutes échelles, et ceci de manière continue.

Un écoulement turbulent est donc constitué par des structures ou « tourbillons » dont l’échelle couvre une gamme ininterrompue, un spectre continu.

CONDITIONS INITIALES

Mais il y a plus dans cette affaire de canards, que l’on pourrait d’ailleurs supposer minuscules, aussi petits que l’on veut. Ils ont été lâchés dans l’eau presque au même endroit, presque au même instant. Pour chacun de ces canards, les conditions de départ ou conditions initiales –en lieux et dates- sont donc quasiment identiques. Leurs lieux et dates d’arrivée sont pourtant très éloignés, puisqu’on en retrouve aussi bien sur les côtes britanniques que dans l’Océan Arctique. En d’autres termes, et du fait de la turbulence, des conditions initiales presque identiques conduisent à des résultats presque aussi différents que l’on veut… Cette étonnante propriété, improprement nommée pendant quelque temps « crise du déterminisme », s’appelle maintenant la « sensibilité aux conditions initiales ». Henri Poincaré (1854-1912) l’exprimait déjà sous la forme suivante : « une cause très petite qui nous a échappé détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard ».

C’est Edward Lorenz – né en 1917 aux Etats Unis d’Amérique- qui, le second, causa à dieu plus encore d’embarras que Reynolds, au sens de Werner Heisenberg. Météorologue au MIT, il montra en 1963 que la sensibilité aux conditions initiales relève, pour un système présentant au moins trois degrés de liberté, de la non-linéarité des équations qui gouvernent son évolution. Ce système est alors dit « chaotique » en ce sens que d’infimes différences des conditions de départ peuvent engendrer de rapides divergences. L’idée de non-linéarité est relativement simple à exprimer : un système physique est dit « non-linéaire » dès lors que le résultat d’une somme d’actions exercées sur lui n’est pas la somme des résultats de chacune de ces actions.

Le principe fondamental de la mécanique exprime le fait que l’accélération subie par une masse donnée est proportionnelle aux forces auxquelles cette masse est soumise. En mécanique des fluides, les équations dites « de Navier-Stokes » expriment directement ce principe fondamental de la mécanique, et se révèlent non-linéaires du fait de l’expression de l’accélération. Elles comportent évidemment plusieurs infinités de degrés de liberté et sont de surcroît dissipatives en raison du frottement visqueux qui – aux plus petites échelles - convertit en chaleur une part de l’énergie cinétique du mouvement. Les équations de la mécanique des fluides, qui décrivent les mouvements, comportent donc structurellement le germe du chaos, de la turbulence et de la sensibilité aux conditions initiales.

FERMETURE

Une approche de la question de la turbulence consiste à se désintéresser dans un premier temps des fluctuations turbulentes proprement dites pour se préoccuper exclusivement des caractéristiques moyennes de l’écoulement : vitesses, températures, humidités, salinités ou concentrations diverses… On est alors conduit à rechercher les équations que vérifient ces champs moyens, étant entendu que les champs réels instantanés –sommes des moyennes et des fluctuations- vérifient bien l’ensemble des équations qui régissent le mouvement et la diffusion.

Un opérateur de moyenne étant choisi qui relève d’une axiomatique simple dite encore « axiomatique de Reynolds », on peut démontrer que les champs moyens vérifient les mêmes équations que les champs instantanés à l’exception de celles qui ne sont pas linéaires, comme c’est précisément le cas des équations de Navier-Stokes. Dans ce cas, de nouvelles inconnues apparaissent dans les équations qui décrivent le champ des vitesses moyennes : ce sont les six tensions de Reynolds, moyennes des produits deux par deux des trois composantes des fluctuations de la vitesse. De ce fait, la question des champs moyens comporte plus d’inconnues que d’équations. Il est donc mathématiquement hors de question d’espérer résoudre le moindre problème tant que l’on ne disposera pas au minimum d’autant d’équations que d’inconnues. Il faut donc rechercher des équations supplémentaires : c’est le célèbre problème dit « de la fermeture des équations ».

Les tensions de Reynolds pouvant s’interpréter comme des flux turbulents de quantité de mouvement, la première idée qui vient à l’esprit est celle qui est évoquée plus haut : remplacer dans les équations de Navier-Stokes la viscosité moléculaire par une viscosité « virtuelle » ou « turbulente », par analogie des flux moléculaires de quantité de mouvement décrits par le terme visqueux et des flux turbulents décrits par les tensions de Reynolds. Encore une fois, cette aberration usuelle attribue au fluide une propriété qui relève de l’écoulement. Il existe quantité d’autres fermetures infiniment plus astucieuses qui reposent toutes sur des considération empiriques ou semi-empiriques, en général basées sur des équations dites « d’ordre supérieur », comme celle de l’énergie cinétique turbulente, à l’ordre deux. Si telle ou telle hypothèse de fermeture peut se révéler correctement adaptée à tel ou tel type d’écoulement, aucune n’est évidemment à même de permettre une fois pour toutes et dans tous les cas d’écrire pour le mouvement moyen, autant d’équations qu’il existe d’inconnues. On rencontre donc une fois de plus un problème structurel lié à la non-linéarité des équations du mouvement. Aucune fermeture empirique ne peut prétendre à l’universalité.

Il est par conséquent totalement faux d’affirmer comme beaucoup le croient que la turbulence constitue une « dentelle » inapte à entacher la prédiction des champs moyens. C’est pourtant fréquemment dans les médias le propos d’économistes, de géographes ou de simples militants écologistes. C’est hélas aussi celui de scientifiques qui se baptisent eux-mêmes « climatologues », tout en ignorant les fondements théoriques de la mécanique des fluides…

PREDICTIBILITE

Les travaux de Lorenz d’une part et la question de la fermeture des équations d’autre part posent en définitive l’immense question de la prédictibilité (ou prévisibilité) des écoulements turbulents. Et non pas seulement de la possibilité de prévoir le détail des champs à venir, mais aussi celle de leurs caractéristiques moyennes. Dans son ouvrage sur la turbulence (« La turbulence », Presses Universitaires de Grenoble, 1994, page 22) Marcel Lesieur écrit d’ailleurs que « l’exemple le plus immédiat de l’imprévisibilité est donné par la météorologie, cependant que Bernard Strauss, directeur du Centre National de prévision de Météo France à Toulouse, reconnaît dans le journal « Le Monde » (8 et 9 octobre 2006), qu’en raison de ce chaos, la limite des futures prévisions météorologiques « doit se situer aux alentours de 13 à 15 jours et qu’il n’y aura sans doute jamais aucun moyen d’aller au delà ». Ceci relève évidemment des questions évoquées ci-dessus, depuis les énormes valeurs des nombres de Reynolds des écoulements géophysiques au problème de la fermeture des équations, en passant notamment par le sensibilité aux conditions initiales…

Les désormais célèbres modèles numériques, et notamment ceux qui sont censés prévoir le temps qu’il fera, consistent en fait à remplacer les systèmes d’équations aux dérivées partielles qui régissent les mécanismes concernés par des approximations itératives, dites par exemple « aux différences finies », que les ordinateurs peuvent résoudre aux nœuds d’un système de mailles plus ou moins serrées, à deux ou le plus souvent à trois dimensions spatiales. Structurellement approximatifs, donc, ces modèles font en outre appel à des fermetures et sont sensibles aux conditions initiales aussitôt que les équations exploitées ne sont pas linéaires. Ceci conduit par exemple David Ruelle (Hasard et chaos, Odile Jacob, 1991) à écrire que « pour être honnête, il faut dire que l’évolution naturelle diverge d’une évolution calculée plus vite que deux évolutions calculées ne divergent l’une de l’autre ».

Cette imprédictibilité structurelle des écoulements turbulents, et particulièrement ceux de l’atmosphère et des océans est très largement méconnue, pour ne pas dire dissimulée. Le plus souvent scotomisée par les climatologues, elle exaspère pourtant les militants verts et de nombreux journalistes incompétents en sciences, telle Marie Muller qui, dans le Nouvel Observateur (2093, 11-24 décembre 2004, page 31) n’hésite pas à insulter les météorologistes à propos de la célèbre tempête de 1999 : « Or là, ils n’ont rien vu, rien prévu, rien compris, rien expliqué. Ce qui ne les empêche pas, avec la suffisance qui les caractérise, de persister dans leur attitude de sidération bornées » écrit-elle, déplorant plus loin la « médiocrité médusée des explications des spécialistes ». Madame Muller mérite certainement le prix Nobel de physique pour penser que de telles prévisions sont possibles, à moins qu’elle n’ait rien compris.

Au delà de la météorologie, l’étude par ordinateur de l’évolution climatique met en œuvre des « modèles dynamiques planétaires » (MDP) analogues à ceux qui fournissent les prévisions du temps, sur le plan des mathématiques et de la physique. Mais il y a plus, comme on peut le lire dans ce cours avancé sur la variabilité du climat : « les modèles numériques initialement développés pour la prévision météorologiques sont maintenant utilisés pour la prédiction du climat. Certains instituts construisent des modèles unifiés servant dans une égale mesure à la prédiction du temps et du climat. La confiance que l’on peut accorder à un modèle de simulation du climat sera d’autant plus grande que ce même modèle fonctionne avec succès en prévision météorologique » (Decadal Climate Variability, Dynamics and Predictability, NATO Advanced Study Institute, D. Anderson et J. Willebrand ed., 1996, p. 148).

Formellement analogues aux modèles météorologiques, les modèles climatiques incluent évidemment en outre les descriptions de très nombreux mécanismes que l’on peut négliger lors d’une approche prédictive du temps qu’il fera dans quelques jours. Ils sont donc éminemment plus complexes et encore plus non-linéaires. Contrairement à ce que l’on trouve régulièrement dans la « grande » presse, ce n’est donc pas fondamentalement en raison de la difficulté très réelle d’intégrer l’ensemble des processus qui régissent l’évolution climatique que ces modèles peinent à fonctionner. C’est - à la base - en raison de la non-linéarité des équations de la mécanique des fluides, elle-même responsable de la sensibilité aux conditions initiales, du chaos, et de l’imprédictibilité structurelle des écoulements atmosphériques et océaniques au delà d’un certain délai.

Il va de soi qu’en termes de bilans globaux, la question de la prédictibilité ne se pose pas. Si la Terre reçoit du Soleil plus d’énergie qu’elle n’en réémet, elle se réchauffe et inversement. Mais le devenir exact de la chaleur ainsi reçue de même que son impact sur les pluies, les vents, ou les courants marins de telle ou telle région particulière relève bien, pour sa part, des questions évoquées plus haut.

Que penser alors de l’obstination des modélisateurs du climat à vanter, malgré le chaos turbulent, la validité de leur approche ?

Dans La Recherche (hors-série numéro 9, novembre-décembre 2002, page 29 « L’effet papillon bat-il de l’aile ? »), Nicolas Witkowski fournit - sans le dire et peut-être même sans y penser - les éléments d’une réponse possible : il propose en effet un diagramme de l’évolution par discipline du nombre d’articles scientifiques contenant le terme chaos, et ceci depuis 1990. Il en recense par exemple près de 450 en physique et 200 en sciences appliquées vers 1995. Une notule de la figure en question mentionne qu’en raison d’un nombre trop faible de citations, la météorologie et les sciences de la Terre, de l’océan et de l’espace ne figurent pas sur cette courbe…

Ignorance, donc, ou dénégation ? L’affaire est bien étrange, en vérité.

Pr Maxence Revault d’Allonnes

source

Messages

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.