Accueil > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 02 : Is matter a suject of philosophy ? Matière à philosopher ? > L’erreur, fondement de… la vérité scientifique

L’erreur, fondement de… la vérité scientifique

mardi 19 janvier 2016, par Ramata, Robert Paris

"La vérité est dans la contradiction."

Friedrich Hegel

L’erreur, fondement de… la vérité scientifique

Avertissement, nous ne voulons discuter ici ni des fausses sciences, ni des para-sciences, ni des pseudo-sciences, ni des magies, ni des conceptions religieuses des sciences, ni des menteurs et des trafiquants de la science, ni de la notion de fraude en sciences, ni de la bonne foi ou de la mauvaise foi dans l’erreur, ni même du caractère limité des capacités de l’homme en sciences et des difficultés de la connaissance, mais au contraire des succès de la connaissance au cours du fonctionnement normal, courant, habituel de la science, celui fonctionne à partir d’erreurs et pour parvenir à d’autres erreurs, tout en n’ayant jamais cessé de chercher la vérité. Nous ne développons pas ici une conception qui soutienne l’importance du doute méthodologique, de la confrontation à l’expérience ou de la compatibilité avec les autres connaissances, de la nécessité de se remettre en question, ni de toute autre conception de type moral sur la démarche scientifique. Nous ne discutons pas ici des critères de vérification des preuves, ni des conceptions diverses de la vérité. Nous ne cherchons pas non plus à opposer la notion de recherche de la vérité aux conceptions philosophiques des diverses sociétés, et à relativiser ainsi la science, ni à développer un quelconque scepticisme à son égard, ni encore à soutenir un pragmatisme qui pousse à affirmer que la vérité absolue ne serait pas un but de la science qui devrait se contenter de vérités partielles et locales. Nous ne voulons pas discuter des oppositions entre vérité et réalité, entre vérité et mensonge, entre vérité et possibilité, etc… Non, nous voulons simplement discuter du caractère à notre avis indispensable, incontournable et positif de l’erreur en sciences, même si ce n’est bien entendu pas le cas de n’importe quelles erreurs ni à tout moment au sein du processus de la science…

LIRE AUSSI :

Qu’est-ce que la vérité ?

Qu’est-ce que la science ?

La vérité scientifique est-elle dans les faits ?

Qu’est-ce que le « phénomène » ?

La science et l’expérience

Contre l’éclectisme, le relativisme et le scepticisme

Contre l’empirisme

La dialectique est-elle indispensable à la pensée scientifique

Faut-il une philosophie en sciences ?

L’importance des paradigmes en sciences

La science est-elle réfutable ?

La science est-elle mathématique ?

La mystification de la matière

L’objectivité du monde matériel

Pourquoi la matière échappe à l’intuition et au bon sens

« Il ne saurait y avoir de vérité première. Il n’y a que des erreurs premières. »

Gaston Bachelard

« La vérité est un mensonge rectifié. »

Gaston Bachelard

« Parfois le mensonge explique mieux que la vérité ce qui se passe dans l’âme. »

Maxime Gorki

« La vérité est dans la contradiction. »

Friedrich Hegel

« En fait de vérités inutiles, l’erreur n’a rien de pire que l’ignorance. »

Jean-Jacques Rousseau

Pour le bon sens commun comme dans la conception de bien des auteurs, notamment celle des scientifiques, la vérité scientifique serait diamétralement opposée à l’erreur et, comme telle, à combattre attentivement, à démasquer, à effacer, à dénoncer… Ainsi raisonnait notamment Descartes qui affirmait que "Il est certain que nous ne prendrons jamais le faux pour le vrai tant que nous ne jugerons que de ce que nous apercevons clairement et distinctement."
Certains en sont même restés à l’idée qu’une vérité scientifique serait « aussi indiscutable que un plus un égale deux » ! Elle devrait être fondée sur des certitudes de préférence étayées mathématiquement et que l’on ne devrait jamais plus remettre en question. Ces personnes pensent que le progrès des sciences irait de vérités en vérités, qu’elle progresse de manière continue ou saccadée, par révolutions scientifiques ou par petits progrès, théoriques comme expérimentaux. Ils pensent qu’il n’y aurait jamais de retour en arrière vers des thèses abandonnées pendant longtemps et que l’on croyait définitivement rejetées. Ils n’ont pas conscience de fonder leur conception de la science déjà sur une erreur : la science ne peut pas progresser sans se hasarder sur des hypothèses comme le soulignait Henri Poincaré et aller jusqu’au bout de leur examen, quitte à se hasarder dans des impasses. Mais, en progressant ainsi, la science ne se trompe pas : elle ne peut pas faire autrement que d’explorer et d’inventer des voies quitte à trouver qu’elles ne sont pas les bonnes. La science progresse d’erreur en erreur et non de vérité en vérité.

Jamais nous ne disposons de vérité indiscutable en sciences, ne serait-ce que parce que nos possibilités d’accéder aux informations sur le monde sont limitées par les moyens techniques de notre époque. On ne voit pas les mêmes choses avec un microscope qu’avec un microscope à effet tunnel ! On ne trouve les mêmes résultats sur les propriétés de la matière dans un tube à essais que dans un accélérateur de particules ! Et les images que nous pouvons nous donner du fonctionnement du monde matériel dépendent déjà des connaissances issues de ces moyens d’observation.

Ainsi, nous sommes capables d’observer plus avant dans la matière, vers le plus petit, le plus loin dans l’espace, le plus énergétique, le mouvement le plus rapide, le plus en temps court au fur et à mesure des époques. Et cela change considérablement ce que l’on voit mais aussi notre vision du monde, c’est-à-dire nos conceptions de la matière.

L’exemple de la physique quantique est là pour nous montrer que le plus petit n’est pas une réduction de ce qui se passe à niveau plus grand en taille, ce n’est pas une simple réduction… Un monde hiérarchiquement inférieur peut avoir des fonctionnements et des lois complètement différentes de ce qu’elles sont au niveau supérieur. Le monde à l’échelle quantique (de la taille d’une action correspondant à un ou à un petit nombre de quanta de Planck) ne fonctionne pas du tout sur le modèle que nous concevons pour la matière à notre échelle. Le monde du vide quantique fonctionne encore sur un tout autre mode que celui des particules dites élémentaires. Par exemple, la mécanique classique avec vitesse et position ne fonctionne que pour tout ce qui est plus grand que notre échelle dite macroscopique mais pas au niveau quantique. Et le temps lui-même, avec son écoulement en une seul sens n’existe plus du tout dans le vide quantique ! Il y a de véritables sauts entre les différents niveaux emboités qui constituent le monde. Il est certes possible d’étudier des phénomènes impliquant essentiellement un seul niveau et c’est ce qui permet de raisonner suivant une conception en oubliant les autres. On peut ainsi continuer à utiliser la mécanique classique ou l’électromagnétisme classique dans certains domaines. Mais il faut quand même savoir que l’on a choisi, en agissant ainsi, de faire abstraction de toute une partie de la réalité, d’échelle beaucoup plus grande ou beaucoup plus petite (que ce soit en termes de distance, de temps, d’énergie).

De la même manière, on peut tout à fait vivre et agir efficacement sur terre en considérant que la terre est plate sans trop se tromper. Il peut même être bien plus faux de raisonner à notre échelle à partir de l’idée que la terre est ronde. Le « mensonge » de la terre plate est une vérité pour celui qui construit un immeuble, qui utilise pour cela un niveau à bulle indiquant les verticales et les horizontales. Les verticales, prises pour deux lieux peu éloignés, sont considérées par le bâtisseur comme des parallèles. Pourtant, nous savons maintenant que ces verticales sont fondées sur la gravitation qui attire toutes les masses vers le centre de gravité de la terre et donc loin d’être des parallèles, ces droites se rencontrent toutes en un même point !!! Et pourtant, à notre échelle, cette erreur théoriquement totalement fausse, est une vérité pratique, car les techniques de construction du Bâtiment ne peuvent avoir une plus grande précision. Il serait même absurde de chercher une précision plus grande pour deux parallèles.

De telles « erreurs », qui sont en même temps en quelque sorte des vérités, ne sont pas des exceptions ou des cas particuliers. On est sans cesse dans la situation du bâtisseur qui fonctionne sur la base d’approximations et d’images partiellement ou totalement erronées mais qui fonctionnent bien.

Nous sommes sans cesse amenés à « négliger » des éléments de niveau inférieur. On peut se dire que ce n’est pas grave puisque cela n’entraîne pas d’erreurs trop importantes sur le plan pratique. On appelle cela le pragmatisme. Malheureusement, en sciences comme dans d’autres domaines, cette philosophie prétendument plus terre à terre et donc plus proche de la réalité, ne l’est pas. En effet, le fait de « négliger » des éléments plus petits (en temps plus court ou plus rapides) change complètement notre vision du monde et les lois à y appliquer.

Ainsi, à notre échelle, le courant d’eau qui sort du robinet apparaît comme un continuum. On parvient très bien à s’en sortir en raisonnant ainsi et en comparant ce flot par volumes d’eau, comme si ce liquide était continu et divisible à volonté. La molécule d’eau est suffisamment petite, et il y a un si grand nombre de molécules dans tout volume d’eau que nous considérons, que la continuité de ce courant de liquide suffit à effectuer des calculs et des raisonnements à notre échelle. Et pourtant, nous avons maintenant que l’eau du robinet, comme toute matière, ne peut exister que molécule par molécule, de manière tout à fait discontinue. En raisonnant avec des volumes d’eau, on ne fait pourtant le plus souvent aucune erreur de raisonnement ni de calcul et pourtant l’image que nous utilisons est complètement fausse et même contraire à la réalité moléculaire de la matière. Dans la réalité, ces volumes d’eau que nous utilisons dans les calculs existent-ils vraiment ? Non ! En effet, la notion de volume de l’eau (comme d’autres matières) n’a pas vraiment de sens car l’eau n’occupe pas de tels volumes. En effet, la molécule d’eau (comme les autres molécules), loin d’occuper tout un volume laisse des grands vides entre deux molécules et d’autres grands vides au sein de la molécule. Donc un volume d’eau est d’abord un volume de vide ! Cependant le calcul de la quantité d’eau par volumes fonctionne parfaitement à notre échelle d’expérience, d’observation et de mesure.

Il ne suffit pas de dire que du volume à la molécule, on a une autre vision qui gagne en précision. En effet, en passant d’une vision à l’autre, on change complètement d’image, de raisonnements, de lois et de conception, pour ne pas dire de philosophie. On passe d’une matière considérée comme continue, divisible par exemple à l’infini, à une matière discontinue et même discrète, avec une quantité minimale de base, la molécule d’eau dont toute quantité d’eau ne peut qu’être un multiple. C’est un changement radical et pas seulement une amélioration de la précision de la description. Le petit n’est pas identique au grand, avec juste un changement d’échelle.

La raison fondamentale du saut entre la petite échelle et la grande échelle provient du fait que le petit n’est seulement une brique élémentaire du grand, comme on le croyait autrefois selon une vision réductionniste du monde qui l’imaginait comme un jeu de Lego. La grande échelle est un niveau émergent issu de la petite échelle, ce qui est très différent d’un jeu de construction. Emergent signifie que la matière a grande échelle n’est pas un objet qui existerait par lui-même, serait toujours identique à lui-même et obéirait à une loi selon laquelle « le tout est la somme des parties ».

Quiconque a vu un vase se rompre peut être parfaitement persuadé que le tout est la somme des parties et que si on divisait ce vase en parties encore plus élémentaires, en particules par exemple, il en serait de même. Et c’est cela qui s’est révélé complètement faux. Cela marche assez bien à notre échelle, dans les phénomènes les plus courants de matière à notre échelle. Cela ne marche plus du tout dès qu’on approche de l’échelle quantique.

Quiconque examine de la matière à notre échelle, par exemple cette table, est persuadé qu’elle est toujours identique à elle-même et qu’il ne lui arrive rien si on n’y touche pas. Il peut croire que c’est toujours la même matière et donc qu’elle doit sans doute toujours être constituée des mêmes particules mais cela est faux. Car les particules élémentaires ne sont pas assimilables à des objets fixes, pas plus qu’aucune matière à l’échelle quantique.

L’étude de toute matière à l’échelle quantique donne une réponse fondamentalement opposée à de telles assertions. La matière change sans cesse à petite échelle au point que l’on ne peut pas suivre « le même électron » ni « le même proton » comme on peut suivre dans le temps « la même table » ou « le même vase ». On ne peut d’ailleurs pas distinguer deux particules du même type, comme deux électrons ou deux protons, si elles sont dans une zone proche. Dans le vide quantique, on ne peut même pas distinguer une particule de matière du vide qui l’entoure au plus près. En effet, particules de matière et particules du vide toutes proches échangent sans cesse leur rôle, la matière devenant du vide et inversement.

Quelle image de la matière dit vrai et quelle image est une erreur ? Celle à notre échelle ? Celle à l’échelle des étoiles, des galaxies, des amas de galaxies, des superamas ? Celle à l’échelle des quanta de matière (par exemple des particules dites élémentaires) ? Celle à l’échelle (dite virtuelle) du vide quantique ? Celle à l’échelle (dite virtuel de virtuel) qui fonde le vide quantique ?

On ne saurait répondre par vrai ou faux aux questions les plus fondamentales des sciences :

 l’atome existe-t-il ?

 l’éther existe-t-il ?

 le temps existe-t-il ?

 la force (en physique) existe-t-elle ?

 la matière est faite d’ondes ?

 la lumière est faite d’ondes ?

 la matière est faite d’objets ?

La raison n’en est pas notre ignorance mais le manque de validité scientifique de toute philosophie du « vrai ou faux ».

Il n’y a pas d’un côté une vérité et de l’autre un mensonge. Il y a une différence de point de vue qui est rendue possible par le caractère intrinsèquement contradictoire de la réalité. Ce sont ces contradictions réelles qui permettent des visions diverses. Ainsi, un mammifère qui se déplace sur terre a une certaine vision des forces qui s’exercent sur son corps et de la manière de les combattre pour se déplacer sur terre. Un insecte ou tout animal très petit aura une toute autre vision de ces forces et, pour lui, la tension superficielle de l’eau aura une bien plus grande importance que la gravitation.

Nous ne cherchons pas ainsi à relativiser ce que nous dit la matière. Nous cherchons à souligner que les points de vue coexistent parce que la matière contient les deux termes de la contradiction. Nous n’avons pas à choisir entre la matière-onde et la matière-corpuscule, entre la matière (dire virtuelle) du vide et la matière dite réelle, entre la matière-énergie, se déplaçant à la vitesse de la lumière, et la matière de masse inerte, se déplaçant à vitesse limitée. En effet, les uns et les autres coexistent au point de pouvoir s’échanger, se combiner, se transformer, etc…

Il ne s’agit donc nullement d’en tirer une leçon en termes de relativisme, ni de pragmatisme, ni de scepticisme mais de conception dialectique du réel, ce qui est bien différent.

Les niveaux hiérarchiques coexistent de manière dialectique (contradictoires et combinés). Ondes et corpuscules, quantique et relativité, mascroscopique et microscopique s’opposent et se composent…

La progression des idées scientifiques est tout aussi dialectique. L’histoire des sciences est pleine de va et vient entre des idées considérées comme vraies et des idées considérées comme fausses.

Par exemple, on a longtemps cru que la principale erreur de Newton résidait dans sa conception de la lumière fondée sur des corpuscules (discontinuité) alors que, durant de longues années, la science de la lumière a pu progresser considérablement en se fondant sur la continuité des ondes. La physique quantique, développée à partir de l’effet photoélectrique d’Einstein, a donné le coup de grâce à cette idée continue de la lumière. Peu après, la physique quantique donnait aussi le coup de grâce à l’idée inverse selon laquelle la matière ne connaissait pas de lois continues du type « ondes », avec la découverte de Louis de Broglie des ondes de matière…

L’opposition diamétrale des ondes et des corpuscules avait vécu. Et d’autres oppositions diamétrales allaient suivre, toujours grâce à la physique quantique, dont l’opposition entre matière et lumière, l’opposition entre matière et vide. La relativité allait détruire aussi l’opposition diamétrale entre matière et lumière, entre passé et futur, entre matière et énergie…

La vérité et l’erreur, peut-on décrire ainsi les développements de la science ? La physique de Newton est-elle « une erreur » par rapport à la physique de la relativité d’Einstein ? La relativité restreinte est-elle « une erreur » par rapport à la relativité généralisée ? Les différents niveaux de la physique quantique sont-ils des vérités ou des erreurs les uns par rapport aux autres ? Qui reprocherait, par exemple, à Bohr ou à Rutherford leur image de l’atome dite planétaire, aujourd’hui abandonnée, dans lequel on considérait que les électrons tournaient autour du noyau atomique à la manière de planètes tournant autour du soleil. On sait aujourd’hui que cette image est fausse et rendrait impossible la stabilité de la matière, des électrons tournant perdraient très rapidement leur énergie et tomberaient sur le noyau. Cela n’a pas empêché cette image d’être encore souvent présentée et d’avoir permis de raisonner sur des niveaux de couches de l’atomes et d’interpréter du coup les émissions et absorptions de photons comme des sauts d’électrons d’une couche à une autre de l’atome, idée qui allait fonder la physique quantique.

C’est loin d’être un cas exceptionnel. Les exemples où une erreur a été à la base d’un progrès fondamental sont légion, dans le passé lointain de la science comme à l’époque moderne, de l’idéologie chinoise d’un monde fondé sur une boule dans un cube (qui a donné naissance à la notion des trois dimensions) à l’alchimie (qui a conduit à la chimie et qui a été finalement vérifiée par la transmutation nucléaire des atomes).

On peut citer à l’époque moderne l’erreur du grand physicien Fermi, pour laquelle il a obtenu le prix Nobel.

Fermi a en effet cru produire deux nouveaux éléments, dont les numéros d’ordre sont 93 et 94, éléments auxquels il a donné le nom d’ausénium et d’hespérium", expliquait ainsi l’académie des Nobel pour justifier son choix. Problème : ces éléments n’ont jamais existé dans l’expérience du chercheur, Fermi s’étant trompé dans son interprétation.

Ce qui ne l’empêchera pas de recevoir le prix Nobel de physique le 12 décembre 1938, pour son expérience menée en 1934. Quatre années sans contradiction scientifique auront suffi pour faire d’une hypothèse fausse une "découverte scientifique".

Il faudra attendre le tout début de l’année 1939, lorsque deux chercheurs allemands reproduisent l’expérience d’Enrico Fermi, pour faire la lumière sur son travail. Et s’apercevoir que s’il avait bien commis une erreur concernant "l’ausénium" et "l’hespérium", le chercheur italien avait en revanche fait une découverte bien plus importante sans le savoir : son expérience est tout simplement à l’origine de la découverte de la fission nucléaire… Une erreur très productive !

Dans La Recherche, « Une vision corrosive du progrès scientifique » :

Dans La Structure des révolutions scientifiques, Kuhn conclut ainsi - à titre provisoire, il est vrai : " Pour être plus précis, il se peut que nous soyons amenés à abandonner l’idée que les changements de paradigme rapprochent sans cesse les scientifiques et ceux qui les suivent de la vérité. "… Si Kuhn admet que le progrès puisse exister dans les sciences, il dénie que ce progrès tende vers aucun but, quel qu’il soit. Il emploie fréquemment la métaphore de l’évolution biologique : d’après lui, le progrès scientifique ressemblerait à l’évolution telle que la concevait Darwin, c’est-à-dire à un processus non dirigé vers un but quelconque. D’après lui, la nécessité de résoudre les problèmes scientifiques constitue le moteur de la sélection naturelle des théories. Dans une période de science normale, finissent par surgir des problèmes insolubles dans le cadre des théories existantes. D’où une prolifération d’idées nouvelles ; parmi elles, les mieux adaptées à la résolution de ces problèmes survivent. Certes, Kuhn reconnaît que les théories de Maxwell ou d’Einstein sont meilleures que celles qui les précédaient, tout comme les mammifères se sont révélés plus doués que les dinosaures pour survivre aux effets des impacts de comètes. Mais l’apparition future de nouveaux problèmes les verra remplacées par de nouvelles théories, plus adaptées à la résolution de ces problèmes, et ainsi de suite, sans qu’il s’en dégage aucune amélioration d’ensemble… Il est également vrai que les scientifiques immergés dans une période de science normale éprouvent les plus grandes difficultés à comprendre les travaux produits par leurs prédécesseurs au cours des révolutions scientifiques précédentes. Nous sommes le plus souvent incapables de ressentir a posteriori la rupture conceptuelle produite pendant une révolution. Par exemple, un physicien d’aujourd’hui a bien du mal à lire les Principia de Newton, même dans une traduction moderne du latin. Il a ainsi fallu des années au grand astrophysicien Subrahmanyan Chandrasekhar pour transposer le raisonnement des Principia sous une forme accessible à un physicien actuel. De fait, les participants d’une révolution scientifique vivent quasiment dans deux mondes différents : ils appartiennent à la fois à la période antérieure de science normale, en voie d’effondrement, et à la nouvelle, qu’ils ne comprennent pas encore complètement. Voilà pourquoi il est beaucoup moins difficile, pour des scientifiques travaillant dans une période de science normale, de comprendre les théories d’un paradigme antérieur sous leur forme achevée, parvenue à maturité… On peut en dire autant de notre conception de l’électrodynamique de James Clerk Maxwell. Le Traité sur l’électricité et le magnétisme publié en 1873 par Maxwell est lui aussi d’accès difficile pour un physicien moderne. Il repose en effet sur l’idée que les champs électriques et magnétiques expriment des tensions dans un corps, l’éther, à l’existence duquel nous ne croyons plus aujourd’hui. De ce point de vue, Maxwell est lui aussi prémaxwellien. Oliver Heaviside, qui donna à la théorie de Maxwell sa formalisation moderne, disait que Maxwell n’était qu’à moitié maxwellien. La théorie maxwellienne - c’est-à-dire la théorie de l’électricité, du magnétisme et de la lumière fondée sur les travaux de Maxwell - n’atteignit sa forme achevée débarrassée de sa référence à l’éther qu’en 1900, et c’est cette dernière que nous enseignons à nos étudiants. Ils suivent ensuite des cours de mécanique quantique, où ils apprennent que la lumière est constituée de particules appelées photons et que les équations de Maxwell ne sont que des approximations. Mais cela ne les empêche nullement de continuer à comprendre l’électrodynamique maxwellienne et à y recourir en cas de besoin. En résumé, c’est l’évaluation des théories une fois parvenues à maturité, et non au moment de leur naissance, qui permet de définir ce qu’est le progrès scientifique… Naturellement, Kuhn sait que les physiciens actuels utilisent la théorie newtonienne de la gravitation ou la théorie maxwellienne de l’électricité et du magnétisme comme de bonnes approximations, déductibles de théories plus exactes. Mais nous ne les considérons certainement pas comme purement et simplement fausses, dans le sens où sont fausses la théorie du mouvement d’Aristote et sa conception du feu comme un élément le phlogistique. Dans son livre sur la révolution copernicienne, Kuhn lui-même décrit, sans en paraître embarrassé, comment certains éléments constitutifs des théories scientifiques survivent dans celles qui les supplantent… si notre théorie actuelle des particules élémentaires le " modèle standard " a enregistré des succès stupéfiants, les physiciens contemporains ne sont pas fermement attachés à la vision de la nature sur laquelle elle repose. Le modèle standard est une théorie des champs, en ceci qu’il considère les constituants élémentaires de la nature comme des champs - c’est-à-dire des conditions d’un espace, en dehors de toute considération sur la matière qu’il contient -, plutôt que comme des particules. Ces vingt dernières années, on s’est aperçu que toute théorie fondée sur la mécanique quantique et la relativité prend l’aspect d’une théorie des champs lorsque les expériences sont réalisées à des énergies suffisamment basses. Et la plupart des physiciens considèrent aujourd’hui le modèle standard comme une " théorie des champs effective ", fournissant à basse énergie une approximation d’une théorie fondamentale encore inconnue, qui ne fait peut-être aucunement appel à des champs.

Si ce modèle standard constitue le paradigme de la science normale actuelle, il comporte plusieurs éléments ad hoc , dont au moins dix-huit constantes numériques, telles la masse et la charge de l’électron, qu’il a fallu ajuster arbitrairement pour faire coller la théorie aux expériences. Et, de plus, le modèle standard n’incorpore pas la gravitation. Les théoriciens savent donc qu’il leur faut découvrir une théorie plus satisfaisante, dont le modèle standard actuel ne deviendra qu’une bonne approximation. De leur côté, les expérimentateurs travaillent d’arrache-pied à découvrir des données qui entreraient en contradiction avec les prédictions du modèle standard. On a par exemple récemment annoncé les résultats d’une expérience souterraine effectuée au Japon : les particules appelées neutrinos posséderaient des masses, dont la version originale du modèle standard néglige de tenir compteI. Or, si l’on a entamé la recherche de ces masses il y a déjà de nombreuses années, c’est entre autres à partir de ce soupçon : quelle que soit la future théorie appelée à dépasser notre modèle standard actuel, elle a de bonnes chances d’impliquer l’existence de faibles masses pour les neutrinos.

Pierre Barthélemy :

« Le Nobel de Physique récompensait une incroyable erreur… »

En 1938, c’est l’immense chercheur italien Enrico Fermi qui reçoit la distinction suprême pour, je cite, "sa découverte de nouveaux éléments radioactifs, développés par l’irradiation des neutrons, et sa découverte à ce propos des réactions de noyaux, effectuées au moyen des neutrons lents". Le communiqué explicite cette découverte ainsi : “Fermi a en effet réussi à produire deux nouveaux éléments, dont les numéros d’ordre sont 93 et 94, éléments auxquels il a donné le nom d’ausénium et d’hespérium.” Seulement voilà, d’ausénium et d’hespérium il n’y avait en réalité point dans l’expérience du savant transalpin. Fermi s’était trompé dans son interprétation et il avait néanmoins eu le prix Nobel pour la découverte de deux éléments imaginaires...

Pour comprendre cette erreur, il faut replonger dans les années 1930, ère des pionniers du noyau atomique. L’histoire illustre à merveille la manière dont la science se trompe, se corrige et, ce faisant, s’améliore. Que fait Enrico Fermi dans l’expérience qui lui vaut ce Nobel, relatée en 1934 dans Nature ? A l’époque, on ne connaît pas d’élément chimique dont le noyau contienne davantage de protons que l’uranium (92) et le chercheur italien se demande s’il est possible de synthétiser des éléments plus lourds. Son idée est de profiter de la radioactivité bêta qu’il vient de modéliser et grâce à laquelle un neutron peut se transformer en proton (ou le contraire). Pour son expérience, Fermi part de l’idée qu’en bombardant de neutrons des noyaux d’uranium, ceux-ci vont finir par absorber un neutron qui, sous l’effet la radioactivité bêta, se transformera en proton. Le noyau aura finalement gagné un proton, ce qui aura "transmuté" l’uranium à 92 protons en élément nouveau à 93 protons (que Fermi appellera ausénium). Après une nouvelle étape, celui-ci se métamorphosera en élément à 94 protons (nommé hespérium). La difficulté de l’expérience consiste à détecter la présence de ces nouveaux éléments. Fermi ne les identifie pas chimiquement : il se contente de constater que l’expérience produit deux "choses" radioactives dont les caractéristiques sont inconnues. Pour lui, c’est la preuve, certes indirecte, mais la preuve quand même, qu’il a synthétisé deux nouveaux éléments.

Comme l’explique Martin Quack, chercheur à l’Ecole polytechnique fédérale de Zurich, dans l’article qu’il a récemment consacré à cette histoire (publié par Angewandte Chemie International Edition), Enrico Fermi est au départ plutôt prudent dans sa formulation. Mais les années passant et rien ne venant contredire cette interprétation, cette prudence s’estompe et l’on considère le résultat comme acquis, d’autant que la stature scientifique de l’Italien est immense. La chimiste allemande Ida Noddack tente bien d’avancer que le niveau de preuve n’est pas suffisant, mais personne ne tient vraiment compte de ses objections. Un magnifique cas d’école de l’aveuglement des experts.

Tout se précipite à la fin 1938, comme dans un thriller scientifique où le temps se condense et s’accélère. Le 12 décembre, Enrico Fermi reçoit à Stockholm son prix Nobel des mains du roi de Suède. Il en profite pour fuir aux Etats-Unis, la situation de son épouse, qui est juive, étant de plus en plus précaire dans l’Italie mussolinienne. Une semaine plus tard, le 19, le chimiste allemand Otto Hahn, qui a, avec Fritz Strassmann, reproduit l’expérience de Fermi, envoie ses résultats à sa consœur Lise Meitner : les produits de l’expérience ne sont pas des éléments superlourds. Au contraire, cela ressemble à des isotopes inconnus d’éléments plus légers, notamment du baryum (56 protons). Mais comment diable de l’uranium peut-il donner du baryum ? Pendant les vacances de Noël, Lise Meitner discute avec son neveu, Otto Frisch de la possibilité théorique qu’un noyau d’uranium se brise pour donner des noyaux plus légers. Ils écrivent un article en ce sens qui sera publié en février 1939. Ce qu’avait réalisé Enrico Fermi sans le comprendre, c’était la première expérience de fission nucléaire !
Le coupable était dans l’uranium. Le minerai naturel d’uranium contient deux isotopes de cet élément. Le premier, l’uranium 238 (92 protons + 146 neutrons) est de très loin le plus courant puisqu’il représente plus de 99 % du minerai. Le second, l’uranium 235 (92 protons + 143 neutrons) est beaucoup plus rare (0,7 %) au point qu’on peut le considérer comme une impureté. C’est lui qui est fissile et que l’on emploie dans de nombreux réacteurs nucléaires. Et c’est aussi lui qui se trouvait dans la bombe atomique d’Hiroshima. Dans l’expérience de Fermi, le bombardement de neutrons n’a, contrairement à ce qu’espérait le savant italien, rien fait aux atomes d’uranium 238. En revanche, il a provoqué la fission des noyaux d’uranium 235. Les produits nouveaux qu’a détectés l’Italien étaient des produits de fission, des éléments plus légers, inconnus sous cette forme radioactive, comme le baryum 140.

Enrico Fermi méritait sans doute un Nobel et il est dommage qu’il l’ait reçu pour une expérience mal interprétée et pas assez approfondie. Dès qu’il apprit la découverte de Hahn et Strassmann, début 1939, il modifia son discours de réception du prix pour intégrer ce nouveau résultat, preuve d’une grande honnêteté intellectuelle. Les deux chercheurs allemands reçurent le Nobel de chimie 1944 pour la fission nucléaire (Lise Meitner étant scandaleusement oubliée dans l’histoire) et, d’une certaine manière, pour avoir corrigé l’erreur de Fermi. Ce dernier réalisa, en collaboration avec Leo Szilard, la première pile atomique en 1942, c’est-à-dire la première réaction nucléaire en chaîne contrôlée de l’histoire. Et, bien sûr, Fermi travailla pour le projet Manhattan qui mena à la bombe atomique. Quant aux éléments 93 et 94, le neptunium et le plutonium, ils furent bel et bien produits selon le processus qu’avait prévu Fermi. En 1951, on donna donc de nouveau un prix Nobel (de chimie) à ceux qui les avaient mis en évidence, mais cette fois-ci pour de vrai : Glenn Seaborg et Edwin McMillan.
Trois-quarts de siècle après le Nobel de l’erreur, l’histoire vient rappeler que la science a deux versants inséparables, le côté créatif et le côté critique. Comme le souligne Martin Quack dans son article, "la composante créative s’engage dans de nouvelles idées et dans des avenues inexplorées (...). Elle se vend bien grâce au terme chic de "nouveau". Cependant, la composante critique est tout aussi importante que la composante créative. Elle interroge le résultat "nouveau", soumettant ses faiblesses à une critique sévère, répétant et testant les résultats dans de longues enquêtes impliquant un dur labeur. Souvent elle rejette ou corrige le résultat original et mène parfois à une découverte encore plus frappante." Vérifier les résultats des autres a des airs austères et tristes de police scientifique mais conduit parfois à la révolution.

Martin Andler :

« La science au risque de l’erreur » :

Henri Poincaré et le problème à trois corps

Quand, en mai 1885, le mathématicien Gösta Mittag-Leffler (1846-1927) annonce qu’un prix en l’honneur d’Oscar II, roi de Suède et de Norvège, à l’occasion de son soixantième anniversaire, serait décerné en 1888 à l’auteur d’un article original de mathématiques, son opération de promotion des mathématiques est bien organisée. Déjà, ce talentueux professeur à l’université de Stockholm, mathématicien reconnu un peu partout en Europe, notamment en Allemagne où il a fait ses études, et en France où il vient régulièrement, est parvenu, grâce au soutien du roi, à lancer une revue mathématique prestigieuse, Acta Mathematica.8 Mittag-Leffler a réuni un jury prestigieux, comprenant, outre lui-même, deux très grands mathématiciens, certes en fin de carrière, mais qui assurent une grande publicité au prix, l’Allemand Karl Weierstrass (1815-1898) et le Français Charles Hermite (1822-1901).

Il est clair que Mittag-Leffler a, d’emblée, un candidat pour le prix : son ami, le jeune mais déjà célèbre mathématicien français Henri Poincaré (1854-1912). Et en effet, le jury décide de lui attribuer le prix de deux mille cinq cents couronnes : l’annonce en est faite le 20 janvier 1889, jour de l’anniversaire d’Oscar II. Le texte de Poincaré est envoyé à l’imprimeur ; Mittag Leffler est assisté, pour Acta Mathematica, par un secrétaire de rédaction qui est un jeune étudiant prometteur de vingt-six ans, Lars Phragmen. En relisant les épreuves, Phragmen découvre une erreur ! On notera à ce propos que l’étudiant n’a, en fin de compte, pas hésité à mettre en question l’autorité du professeur : en sciences, les arguments d’autorité sont hors de propos. La suite est rocambolesque, car le mémoire a déjà été imprimé et quelques exemplaires ont circulé. Poincaré doit rembourser les frais d’impression (pour un montant supérieur au prix reçu), et de son côté, Mittag-Leffler doit retrouver la trace de tous les exemplaires contenant la démonstration fausse et les récupérer.

Mais surtout il faut corriger l’erreur, ce que Poincaré parvient à faire en quelques mois d’effort acharné, en avril 1890 ; c’est là que la science reprend le dessus sur l’anecdote. Pour en situer l’enjeu, nous devons entrer dans les mathématiques elles-mêmes. Le mémoire de Poincaré portait sur le « problème à trois corps » ; il s’agissait de comprendre les mouvements relatifs de trois astres (trois corps), typiquement une étoile et deux planètes, ou une étoile, une planète et une lune. Ces trois astres s’attirent mutuellement selon la loi de l’attraction universelle de Newton. S’il n’y a que deux astres, le mouvement est simple à décrire, les lois de Kepler s’appliquent : les trajectoires des deux astres sont elliptiques autour d’un foyer, centre de gravité de l’ensemble. Newton lui-même en a fait le calcul à partir de ses lois. Si l’on néglige l’action mutuelle des deux petits astres, là encore le calcul complet est possible, et on trouve à nouveau les orbites elliptiques. En première approximation, il est légitime de le faire : l’attraction de Vénus sur la Terre est de l’ordre de deux millionièmes de l’attraction du Soleil sur la Terre. Mais la théorie ne permet pas de dire si cette infime attraction ne va pas changer complètement l’évolution du système à long terme. Car, contrairement au problème à deux corps, on ne sait pas, à la fin du XIXe siècle, résoudre les équations pour le problème à trois corps !

Au début du XXIe siècle, on n’a toujours pas de réponse complète, mais les travaux de Poincaré ont permis un saut décisif dans la compréhension du problème. Avant même l’affaire du prix, Poincaré avait engagé l’étude des équations du type de celles que l’on rencontre en mécanique céleste, lors de l’étude du mouvement des astres par exemple, dans une voie tout à fait différente de ses prédécesseurs. Les mathématiciens du XIXe siècle avaient consacré beaucoup d’énergie à résoudre complètement ces équations, appelées « différentielles », dans de nombreux cas fort intéressants. Mais vers la fin du XIXe siècle il devenait de plus en plus clair qu’on ne pourrait jamais résoudre toutes ces équations. Ce que Poincaré lança, c’est ce que l’on appelle maintenant la théorie « qualitative » des équations différentielles, qui permet de donner des résultats précis sur l’évolution du système sans pour autant avoir calculé précisément tous les détails…

Dans le mémoire proposé pour le prix, Poincaré s’est intéressé à un cas particulier du problème à trois corps (le problème des trois corps réduit), correspondant à la situation étoile/planète/satellite, où :

• 1° les trois corps restent dans un plan fixe ;

• 2° l’étoile et la planète décrivent des trajectoires circulaires coplanaires autour de leur centre de gravité commun ;

• 3° le satellite est supposé de masse m nulle. Un exemple physique de cette situation : Soleil /Terre /satellite artificiel.

Pour formaliser la situation, il introduit un espace de dimension 4, l’espace des phases. Il étudie pour commencer une situation mathématique encore plus simple, où l’on suppose que la planète est elle aussi de masse p nulle. Dans cette situation très simplifiée, la planète et le satellite tournent autour de l’étoile, que l’on peut supposer fixe ; mais les périodes de révolution sont en général différentes, ce qui entraîne que les positions relatives de la planète et du satellite apparaissent comme étant arbitraires. La deuxième étape de la démarche de Poincaré consiste à voir comment la situation mathématique évolue lorsqu’on fait varier le rapport µ entre la masse p de la planète et la masse e de l’étoile de zéro à un nombre positif petit (pour fixer les idées, le rapport des masses entre Terre et Soleil est de trois millionièmes).

C’est dans cette deuxième étape que Poincaré commet une erreur sérieuse ; non seulement sa démonstration est fausse, mais le résultat l’est également. Comme le résume F. Béguin,9 ce résultat affirme que les trajectoires qui ont un certain mouvement régulier dans le passé, mais dont le mouvement s’est ensuite déréglé, finissent par “rentrer dans le droit chemin” et retrouver leur mouvement régulier initial. En fait, Poincaré sera obligé de constater, dans la version corrigée de son mémoire, celle qui paraîtra dans Acta Mathematica en novembre 1890, que les situations dans les deux directions du temps sont différentes et que la situation est bien plus complexe. C’est de cette observation que l’on peut dater le début de la « théorie du chaos ».

Si cette théorie du chaos est effectivement en germe dès le mémoire de 1890, elle ne se développe véritablement que bien plus tard. Le mot de chaos lui-même n’est utilisé dans les mathématiques et les sciences physiques qu’à partir du milieu des années 1970 ; il acquiert, à la fin des années 1970 et dans les années 1980, le statut de « concept nomade » qui tend à obscurcir son importance ; fondamentalement, il permet en effet de réconcilier déterminisme et imprédictibilité. Depuis la fameuse conférence du météorologue Edward Lorenz en 1972 : « Prédictibilité : le battement d’ailes d’un papillon au Brésil peut-il provoquer une tornade au Texas ? », jusqu’au personnage du roman (1990) et du film (1993) Jurassic Park, Ian Malcolm, spécialiste de la théorie du chaos, les exemples, du plus au moins sérieux, de l’intervention de ce nouveau concept abondent. Comme le montrent Aubin et Dahan,10 l’histoire qui va de Poincaré à la théorie du chaos est longue et complexe, mêlant développements conceptuel, politique et progrès technique ; ce n’est pas le lieu d’y entrer ici.

Ce qui nous intéresse est comprendre comment l’erreur peut survenir, pourquoi elle est intéressante et, à l’occasion de cette analyse, décrire certains aspects du processus de mathématisation. Il s’agit donc d’un point de vue purement internaliste, approprié dans ce contexte.
Analyser le mouvement des planètes par des équations déduites des lois de Newton n’est évidemment pas, à la fin du XIXe siècle, novateur. L’innovation de Poincaré, dans ses travaux des années 1880, consiste à regarder le problème avec une vision géométrique très élaborée. La formulation initiale fait apparaître trois points représentant les trois corps, qui se déplacent dans un plan ; on est donc dans une géométrie de dimension 2. On peut tracer leurs trajectoires possibles, mais ces dessins n’apportent rapidement pas grand-chose. Ce que fait Poincaré, dans ce problème comme dans les autres du même type, est d’introduire un nouvel espace, qui n’est pas présent dans notre perception initiale du problème, mais le représente de manière efficace. Dans le cas du problème à trois corps réduit, on peut supposer que l’étoile est fixe, et que l’on décrit le satellite au moyen de ses coordonnées dans un repère mobile centré sur l’étoile et dont le premier axe suit la trajectoire de la planète. Dans ce repère, tout se passe comme si étoile et soleil étaient immobiles. L’état du satellite est entièrement défini par sa position, naturellement, mais aussi par sa vitesse. Il faut donc quatre paramètres, deux pour la position, deux pour la vitesse, d’où des considérations géométriques dans un espace de dimension 4. On appelle cet espace, espace des phases de l’équation.

Il y a là l’archétype du geste créateur du mathématicien : donner naissance à un espace où les concepts mathématiques vont se déployer, mais qui n’est pas présent aprioridans la question étudiée.Le choix de l’espace des phases est dans une certaine mesure arbitraire, seule compte sa commodité pour représenter la situation. Le deuxième geste du mathématicien est de faire varier une quantité qui ne varie pas ; en l’occurrence, c’est la masse (fixe) de la planète qui devient variable pour le mathématicien. Ici, la transgression est plus marquée, car le formalisme mathématique s’oppose à la réalité physique. En revanche, ce formalisme est d’une redoutable efficacité.
Efficace, mais risqué, puisque c’est précisément là que Poincaré commet une erreur ! Ayant sous-estimé la complexité de l’entrelacs entre les trajectoires, il a, trop rapidement, accordé une régularité trop forte à la dépendance mathématique du mouvement par rapport au paramètre µ : techniquement, il a pensé que cette dépendance était analytique, alors qu’elle n’était qu’infiniment différentiable. Cette erreur rendait fausse sa conclusion.

Messages

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.