Strict Standards: Only variables should be passed by reference in /homepages/36/d206324349/htdocs/site_org1G/config/ecran_securite.php on line 180
Dans quelles conditions la modélisation scientifique ou technique peut-elle se transformer en piège ? - Matière et Révolution
English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 02 : Is matter a suject of philosophy ? Matière à philosopher (...) > Dans quelles conditions la modélisation scientifique ou technique peut-elle (...)

Dans quelles conditions la modélisation scientifique ou technique peut-elle se transformer en piège ?

vendredi 28 juin 2013, par Robert Paris

Dans quelles conditions la modélisation scientifique ou technique peut-elle se transformer en piège ?

La modélisation est une méthode mathématique-informatique qui touche à toutes les sciences, allant de la géophysique des séismes à la gestion de l’énergie en passant par la climatologie et la finance. Elle propose des méthodes pour faire des simulations et proposer des politiques fondées sur des prédictions d’effets liés aux interventions. Il ne s’agit pas ici de science fondamentale mais appliquée. On ne prétend pas décrire véritablement les phénomènes mais d’y intervenir avec une probabilité de résultats positifs prétendument très importante. La méthode est fondée sur la répétition des mêmes calculs, ce que l’on appelle des algorithmes. En effet, les équations étant trop complexes pour permettre d’en donner des solutions, la méthode employée consiste à introduire à nouveau des données à chaque étape et d’en tirer un nouvel état du système, et ainsi de suite de manière successive.

La modélisation la plus simple, la plus élémentaire, consiste à remplacer une série de valeurs apparemment complètement désordonnée par leur moyenne. Ensuite, on étudie l’évolution de ces moyennes pour évaluer s’il existe une tendance générale avec le risque de remplacer les transformations réelles des valeurs avec la transformation de la moyenne en oubliant que la moyenne n’est pas une vraie valeur. On peut ainsi commettre l’erreur d’avoir des valeurs moyennes dans plusieurs domaines et d’effectuer ensuite la moyenne de ces moyennes. On croit alors qu’on étudie quand même des évolutions réelles alors qu’on étudie une fonction qui n’a rien à voir avec ces valeurs réelles et qui s’appelle la fonction « moyenne des moyennes ». Bien des physiciens et mathématiciens sont tombés dans ce piège de la modélisation.

En particulier, il convient de rappeler qu’une modélisation mathématique qui ne correspond à aucune description de processus réels, même si elle n’est pas nécessairement un artefact mathématique comme la moyenne des moyennes, n’a pas force de loi et doit susciter la méfiance si elle prétend donner des assurances sur la suite des événements possibles. Jamais la modélisation ne doit remplacer entièrement l’étude de la succession des événements réels. Et jamais l’existence de potentialités nouvelles ne doit être niée, même si la modélisation lui donne une probabilité quasiment nulle.

Pour nombre d’auteurs, mathématiciens, informaticiens, spécialistes des systèmes mais aussi scientifiques adeptes à tout crin des modèles algorithmiques et des études informatiques, la connaissance doit progresser surtout par l’augmentation des performances des ordinateurs, l’avancée provenant de la naissance de super-calculateurs dans lesquels il n’y aura plus qu’à rentrer des données pour vérifier des modèles ou pour les amener à donner des résultats en termes de probabilités ou de prédictions. C’est cette idée que nous voulons combattre ici.

Le jugement que nous allons porter dans ce texte ne porte pas sur la méthode des modèles en elle-même mais sur les conclusions que certains auteurs prétendent en tirer, en faisant comme si le modèle en savait autant, si ce n’est plus, que le système réel…

En particulier, il est risqué de remplacer des interactions entre deux systèmes par les interactions modélisées entre deux modélisations. Les modélisations en font que suivre des paramètres mathématiques alors que la réalité n’est jamais mathématique et fonctionne sur la base d’interactions comprenant l’ensemble de la réalité et non des paramètres dits essentiels. Il arrive toujours un moment où cette vision d’interactions entre éléments modélisés s’éloigne dramatiquement de la réalité et où les gens vont s’indigner de cette divergence dramatique en oubliant que ce n’est pas la modélisation mais la volonté des modéliseurs, de leur faire dire ce qu’ils ne disent pas et ne pourront jamais dire, qui est en cause.

Quand la logique d’un système l’amène vers des bifurcations discontinues, aucun système d’équations continues ne peut décrire le développement de la situation. Toute boule sur une pointe ne peut être décrite par un système déterministe mathématique parce que tout petits facteurs se mettent à devenir déterminants pour entraîner la boule d’un côté ou d’un autre, à un moment ou à un autre. De telles situations sont les limites objectives de description par une modélisation or de telles situations se rencontrent dans tous les types de systèmes.

Ces dernières années, des modélisations fondées sur ces algorithmes ont été utilisées dans certains domaines très médiatisés où ils ont donné des résultats extrêmement controversés. Pour commencer, j’en citerai deux : la conduite de la finance mondiale et la thèse du réchauffement climatique. Un autre domaine plus ancien a été abandonné : la modélisation de la croissance démographique. Cette dernière avait prédit une croissance exponentielle et cette prédiction s’est révélée fausse. Un autre domaine a été aussi modélisé : la consommation mondiale énergétique et elle avait prévu pour 2000 une catastrophe avec une pénurie mondiale d’énergie…

Les travaux des groupes intergouvernementaux sur le climat sont également fondés sur de telles modélisations et ils ont mené à la prédiction d’un réchauffement planétaire catastrophique dû à l’activité humaine. Il est difficile de modéliser quand toutes les lois sont bien connues mais encore plus difficile quand elles ne le sont pas. Or, nous connaissons mal la dynamique des océans, celle des nuages et celle du soleil. Trois domaines déterminants pour la dynamique des climats. La prétention à avoir maitrisé, grâce à des ordinateurs super-puissants, l’avenir des climats semble bien prétentieuse dans ces conditions. La thèse du tout effet de serre semble aussi tirée par les cheveux… Le CO² n’est pas la clef unique de la température de la Terre ! Il existe de multiples causes possibles d’un réchauffement et de multiples rétroactions capables d’aller à l’encontre. Il est difficile d’apprécier si une évolution sur un court terme ou un moyen terme est significative d’une évolution à long terme.

Même en matière de météorologie, ce qui n’est pas du tout à la même échelle de temps, les effets de la modélisation sont très controversés. Il y a des météos nationales qui n’utilisent que les modélisations et d’autres qui recherchent des années ayant présenté les mêmes évolutions pour prédire. Il est certain que ceux qui ne font que des algorithmes se trompent plus, comme c’est le cas de la météo nationale française… Et cela tout particulièrement dans les périodes de climat très changeant avec un fort affrontement entre la zone d’air chaud et celle d’air froid. Il en va de même de tous les phénomènes présentant des non-linéarités et que l’on observe dans une phase assez désordonnée : les modélisations ne suffisent pas parce que des éléments d’échelle inférieure, jusque là négligeables, peuvent être déterminants dans certaines circonstances (effet de pointe).

Dans le domaine de la finance, on a assisté en direct à un tel couac retentissant, un échec de la modélisation dans une situation chaotique, puisque les hauts responsables mondiaux de la finance prétendaient qu’ils maîtrisaient parfaitement les flux financiers de la mondialisation des marchés et l’effondrement de 2007 a démontré qu’il n’en était rien.

Ils savaient paraît-il d’avance quel allait être le résultat de leurs politiques et pilotaient le système financier à la seconde et pourtant… il leur a échappé. Et depuis, ils n’ont fait que courir après et ne maîtrisent plus rien !

Bien entendu, dans toutes ces questions, les limites de la modélisation ne sont pas les seules à devoir être accusées mais d’abord ceux qui ont prétendu qu’on pouvait remplacer la description des processus réels par ces algorithmes alors que ce n’est le cas que dans des situations limitées, correspondant à des périodes relativement régulières où les lois non-linéaires peuvent être assimilées à des lois presque linéaires, juste légèrement corrigées sans cesse.

Un autre domaine a été piloté exclusivement par des modélisations qui ont servi de justification à une politique minimisant les risques : la construction des centrales au Japon. Des modélisations des tremblements de terre ont été utilisées pour prédire que la construction des centrales ne comportaient pas de risques. Pour cela, on a fait rentrer dans les modèles des secousses sismiques relativement modestes et des risques modestes également de tsunamis, et pas les deux à la fois. Pas à la fois les secousses et les coupeurs de courant et d’eau… La modélisation n’est pas plus à accuser que le but des modélisateurs et le résultat a été une catastrophe de grande ampleur…

En Italie, des scientifiques ont été condamnés à des peines de prison pour avoir, à la demande des autorités politiques, affirmé à des habitants d’une ville qu’ils pouvaient res

Cela casse déjà la prétention d’objectivité des modèles. Un modèle est une simplification or le choix du niveau d’étude, des données, des risques, tout cela n’a rien d’objectif.

Fréquemment dans la société, on nous présente une modélisation et on la place au dessus de l’observation réelle pour imposer les politiques qui, nous dit-on, doivent en découler de manière absolue, de manière soi-disant scientifique !

La modélisation est employée dans de nombreux domaines : • en mathématiques appliquées, et en pratique en chimie, en physique, en informatique, en météorologie ou en sciences de la vie et de la terre, la modélisation permet d’analyser des phénomènes réels et de prévoir des résultats à partir de l’application d’une ou plusieurs théories à un niveau d’approximation donné,

• en ingénierie, la modélisation 3D est un cas particulier du précédent qui consiste à produire des images d’objet réel,

• en informatique, on parle de modélisation des données pour désigner une étape de construction d’un système d’information,

• en pédagogie, la modélisation de la discipline consiste en une représentation simplifiée des objets d’enseignement sous une forme plus ou moins abstraite que les apprenants auront à s’approprier.

• en conseil entreprenarial, la modélisation d’entreprise consiste à modéliser les différents concepts de l’Entreprise tout en les associant les uns aux autres pour offrir une vue globale, multi-dimensionnelle et cohérente.

• dans une entreprise, la modélisation de processus consiste à structurer et à représenter visuellement les activités de l’entreprise.

• en économie, la modélisation économique permet une représentation simplifiée de la réalité économique ou d’une partie de l’économie.

La vache sphérique est une métaphore pour désigner les modèles scientifiques qui simplifient fortement la réalité. L’expression provient d’une blague à propos des physiciens en physique théorique : « La production laitière d’une ferme était si basse que le fermier envoya une lettre à l’université locale pour solliciter son assistance. Une équipe pluri-disciplinaire fut constituée, dirigée par un spécialiste de la physique théorique, qui effectua des études approfondies sur le terrain pendant deux semaines. Une fois leurs bloc-notes remplis de données, les scientifiques retournèrent ensuite à leur université, d’où leur chef devait rédiger son rapport. Peu de temps après, le fermier reçut le rapport, l’ouvrit et lut la première phrase : Soit une vache sphérique… »

Cela paraît peut-être ridicule mais la représentation sphérique pour ridicule qu’elle puisse paraitre pour décrire une vache, a le mérite de donner exactement le rapport entre le volume et la surface en termes d’ordre de grandeur or ce rapport est déterminant pour indiquer les limites d’une vache en ce qui concerne les possibilités en termes de pression sur la peau, de poids des membres. Bien des phénomènes sont déterminés par des questions aussi simples que le rapport entre volume et surface et, dans ce cas, cette modélisation est suffisante.

Par contre, ceux qui veulent faire interagir plusieurs modélisations prennent des gros risques. On peut faire dire à une modélisation la résistance nécessaire au béton d’un barrage mais cela tient compte de modélisations concernant les roches alentour et de modélisations sur les risques d’arrivées de masses d’eau ou de neige, mélangées avec des troncs d’arbres ou des roches, enfin des modélisations sur les risques climatiques. Donc l’interaction entre au moins quatre modélisations. Ce n’est pas des faits ! On ne peut pas en tirer des garanties sérieuses…

La modélisation est une manière d’imager figée sans dynamique propre, très loin de la réalité. C’est une simplification valable dans les situations de développement relativement calme mais pas dans les situations explosives ou catastrophiques. Dans ces cas, la non-linéarité ne consiste pas en modifications progressives de facteurs numériques mais en changements qualitatifs. On n’a jamais modélisé le capitalisme car cela nécessiterait d’être capable de comprendre sa fin. On n’a jamais modélisé l’évolution des espèces car il est impossible de prévoir les évolutions. Ce sont des bifurcations qui obéissent à des lois mais celles-ci ne sont pas dans la continuité de l’évolution lente précédente.

Les époques de rupture n’obéissent pas aux même lois que les périodes d’évolution calme et la modélisation de ces dernières ne peuvent nous éclairer sur les périodes de crise.

Ceux qui croient voir la matière en 3D dans les modélisations oublient que cette schématisation a cassé la dynamique réelle au lieu de la représenter. C’est toute la limite de ce genre de méthodes. Le but lui-même contraint à transformer le réel en une image figée et peu parlante. Un atome n’est pas la boule qui est représentée dans l’imagerie-modélisation de la matière et aucune boule ne décrira jamais la matière. Quant à prédire ce que peut faire la matière dans des situations extrêmes, aucune modélisation mathématique ne peut y parvenir car le modèle ne contient pas les contradictions dynamiques de la matière. Ce n’est pas un hasard si les physiciens quantiques ont insisté sur le fait qu’il ne découlait aucune image simple de leur physique.

Modèle mathématique

Voilà comment les économistes expliquent l’échec de la modélisation de l’économie dans l’effondrement de 2007…

La modélisation économique avant 2007 s’est fondée sur l’illusion du « marché parfait ».

Thierry de Montbrial estime que « l’illusion du marché parfait était d’une naïveté extrême » et que « l’illusion a été entretenue par la révolution des technologies de l’information qui, appliquée à la sphère financière, a entraîné une mutation complète du système ».

En termes keynésiens, cette illusion s’est accompagnée de la non prise en compte des « esprits animaux » des acteurs et de l’absence d’une réflexion sur la manière de les canaliser. D’où une réflexion engagée, une fois la crise survenue, sur la taille des banques et sur les moyens d’éviter qu’elles récupèrent les bénéfices et fassent supporter les pertes par les contribuables et l’ensemble du tissu économique.

La finance : “hasard sage” ou “hasard sauvage” ?

L’outil mathématique, qui a partiellement servi à justifier la financiarisation de l’économie est-il le bon ? La question revient à savoir si les cours financiers suivent un “hasard sage”, du type du pollen dans le mouvement brownien ou au contraire « un “hasard sauvage” qui, comme son nom l’indique, est beaucoup plus insaisissable ».

Les financiers en grande majorité sont partis de l’hypothèse que les cours financiers suivaient un “hasard sage”, d’où l’application d’un certain type de mathématiques financières et l’adoption à partir de 1993 à l’initiative de la banque JP Morgan de la VaR (Value at Risk) pour mesurer les risques financiers reposant sur des probabilités respectant la loi normale. Cet instrument a favorisé l’innovation et permis aux banques d’« échapper le plus possible à toute forme de régulation contraignante » et de « pouvoir profiter à plein de la période d’euphorie financières des quinze dernières années ».

Pour d’autres, les cours financiers suivent un « hasard sauvage ». Dès 1973, partant d’une hypothèse de « hasard dur », Benoît Mandelbrot a développé la théorie des fractales et du Mouvement brownien fractionnaire qui a été mal intégrée par les praticiens des marchés financiers. Avec la crise, la théorie du « hasard sage » en finance est de plus en plus remise en question. David Viniar, alors directeur financier de Goldman Sachs, a vu au moment de la crise de 2007-2010 des « choses qui étaient à 25 écarts-types, pendant plusieurs jours » ce qui, [au regard du modèle classique (lois normales)], « a la même probabilité que de gagner 20 fois de suite au Loto ».

D’autres économistes posent encore plus radicalement le problème de la mathématique financière. Par exemple, pour Jon Danielsson de la London School of Economics, la « finance n’est pas la physique ; elle est plus complexe » et les financiers jouent avec les modèles, ce que ne fait pas la nature.

Incompétence et cupidité du système financier

Joseph Stiglitz, prix Nobel d’économie considère que « les financiers ont failli par incompétence et cupidité » et sont la cause principale de la crise. Le système de rémunération par bonus des acteurs des marchés financiers favorisait trop la prise de risque et la dérégulation croissante des marchés empêchait tout rattrapage. Par ailleurs, ils rejettent la faute sur les États et demandent une réduction des déficits publics qui sont, en partie, le résultat des plans de sauvetage des banques. Les réglementations ayant peu changé, ils continuent de spéculer et ont servi de déclencheur à la crise grecque de 2010. Pour Stiglitz le système a besoin d’une réforme mêlant transparence, nouveaux systèmes de rémunération et réduction des leviers financiers et de l’importance du secteur qui pèse trop sur l’économie, car représentant 40 % du total du profit des entreprises39.

Modélisation de la climatologie

Crise des subprimes et modèles mathématiques

Modélisation des risques et risques de la modélisation

Les limites des modèles mathématiques

Qu’est-ce que la prévision économique

Voici comment raisonnent des prévisionnistes hydrologiques pour modéliser : rien à voir avec un raisonnement sur l’hydrologie elle-même !

3 Messages de forum

  • Voici ce que dit la modélisation météo pour cet été :

    plusieurs modélisations proposent une probabilité marquée de températures inférieures aux normales saisonnières pour le trimestre juillet-août-septembre sur l’Europe. Ce signal pourrait s’expliquer par un début de saison plus froid que la climatologie, et une évolution ultérieure incertaine.

    Déjà au mois de mai, Météo Consult annonçait un « été pourri » en France. « Un été frais et humide ? Il semblerait que ce soit un scénario probable à 70%, y compris sur la France. Certains calculs envisagent la persistance d’une anomalie froide pendant les trois mois de l’été (juin, juillet, août) conjuguée à des précipitations excédentaires » prévenait l’organisme.

    Répondre à ce message

  • Frédéric Decker, météorologue à Meteonews depuis 2006, est membre de la Société météorologique de France. A rebours de certaines prévisions qui annonçaient un été frais, il évoque même la possibilité d’avoir un épisode caniculaire la semaine prochaine.

    En somme, ces modélisations ne prévoient rien !

    Répondre à ce message

  • On pouvait lire venant des modélisateurs de météo :

    Les prévisionnistes sont de moins en moins optimistes en ce qui concerne l’été 2013. Comme le mois de juin, il y a de fortes chances que les mois de juillet et d’août soient sensiblement frais et humides. Selon les pronostics de La Chaîne météo, il y aurait même 70 % de chances pour que cela arrive. Il nous reste 20 % de chances pour que l’été soit "normal", 8,5 % de chances qu’il soit chaud... Quant aux possibilités de canicule, elles sont pratiquement nulles (1,5 %).

    Ces projections se basent sur les analyses des principaux modèles numériques américains et européens et ne sont pas aussi fiables que les estimations météo à court terme. Il ne s’agit pour l’heure que de tendances prévisionnelles, qui laissent cependant entrevoir la persistance d’une anomalie froide sur la période estivale. Les épisodes pluvieux pourraient aussi être plus fréquents que prévus par les normales saisonnières. D’autres indices viennent d’ailleurs conforter les statistiques des modèles : les températures de la Méditerranée, de la Manche et de l’Atlantique sont plus froides que les normales, ce qui a pour conséquences de préserver un potentiel d’air froid sur l’est du continent.
    Août 2013 : un été pourri ?

    Le site de la Chaîne Météo précise : "Il s’agit d’une moyenne trimestrielle qui ne permet pas de mettre en évidence quelques pics de chaleur ponctuels, mais la tendance qui se dégage serait celle d’un été pourri sur notre pays". Les prévisionnistes optent "pour un été restant maussade, ponctué de coups de chaleur de peu de durée suivis d’orages violents. Ce qui semble déjà se vérifier lors des premiers jours de juillet. On pourrait observer néanmoins une certaine amélioration globale avec un retour à la normale en fin de saison".

    Le mois d’août 2013 ne devrait cependant pas être très différent, bien que certaines tendances évoluent. Le temps frais et humide va se maintenir sur la majorité du pays. Ce sont les régions situées au nord de la Loire qui devraient être les plus touchées. Les orages seront aussi présents à fréquence régulière. Le pourtour méditerranéen connaitra la fraîcheur avec des période de fort mistral annoncées. Un ensemble de facteurs qui pourraient faire baisser encore un peu plus les températures...

    Y a-t-il une chance pour que l’été soit sauvé ? Il reste encore un espoir. Si les prochaines semaines sont vraiment ensoleillées, les modèles intégrant les potentiels d’air froid sur l’Europe pourraient être corrigés, mais les prévisionnistes estiment qu’il faut que les données changent vite !
    Juillet 2013 : un début d’été meilleur que prévu ?

    Le mois de juillet est-il en train, justement, de faire évoluer ces données pessimistes ? Il devait ’"rester instable et changeant" selon les prévisions. Mais les premiers jours, marqués par certaines périodes de soleil et même de chaleur, n’excluent aucun espoir. Selon les prévisions, elles devraient alterner avec des périodes orageuses fortes ainsi qu’avec des périodes plus froides. Entre le 17 et le 20 juillet, Météo France annonce déjà des orages sur l’ensemble du pays... La ligne descendant de l’Alsace et du Nord-Pas-de-Calais jusqu’en Aquitaine sera particulièrement touchée si l’on en croit les prévisions.

    C’est d’ailleurs sur cette diagonale qu’ont été relevées les plus fortes précipitations à la mi-juin avec plusieurs alertes aux orages dans le nord-est et des inondations dans le sud-est du pays... La montagne et en particulier les Pyrénées, pourraient encore être particulièrement touchées par les précipitations en juillet.

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0