Strict Standards: Only variables should be passed by reference in /homepages/36/d206324349/htdocs/site_org1G/config/ecran_securite.php on line 180
A la base de tout, il y a... l’auto-organisation ! - Matière et Révolution
English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 03 : Revolution : the great organizer - La révolution ou le grand (...) > A la base de tout, il y a... l’auto-organisation !

A la base de tout, il y a... l’auto-organisation !

vendredi 24 février 2012, par Robert Paris

Le réductionnisme en physique, c’est la matière conçue comme un jeu de construction de particules élémentaires : en gris les électrons, en bleu et rouge les protons et les neutrons et l’atome comme un assemblage de ces particules, les molécules comme un assemblage d’atomes, les matériau comme un assemblage de molécules, les planètes comme un assemblage de matériau, les étoiles comme un assemblage de poussières et de gaz et les galaxies comme un assemblage d’étoiles, puis les amas de galaxies, puis les amas d’amas, etc...

L’idée de base du réductionnisme est de chercher dans les propriétés des éléments la base des lois des ensembles d’éléments et de fonder la recherche sur la décomposition en parties plus élémentaires. Ces parties sont censées préexister et fonder, par leurs propriétés préexistantes, la structure supérieure.

L’auto-organisation est une thèse qui s’oppose au réductionnisme.

Y a-t-il un ordre de la matière ou des phénomènes d’auto-organisation à la base de tout ?

Réductionnisme ou holisme, ordre ou auto-organisation, lois ou émergence ?

Nous croyons tous savoir que le fonctionnement de la matière est maintenant complètement expliqué par la physique des particules et pourtant...

Un mythe domine en effet la science physique et la philosophie sur les sciences : celui qui prétend que la matière est suffisamment comprise par les lois mathématiques sur les particules individuelles qui permettrait de comprendre l’ensemble des lois de la physico-chimie donnant naissance à l’ordre général de la matière. Sauf quelques petites questions épineuses, on serait quasiment arrivés au point où pourrait intégrer la connaissance du monde matériel au travers des lois physiques des particules. Le summum de cette thèse a été la théorie selon laquelle le monde serait fondé sur des supercordes. Nous allons essayer de montrer pourquoi c’est faux au triple plan physique, scientifique et philosophique.

Pour beaucoup d’auteurs, de scientifiques, de philosophes et pour le grand public, la messe est dite en ce qui concerne la matière : ce sont des objets corpusculaires qui s’assemblent ensuite pour donner les atomes, les molécules et les différents matériaux.

Voici un texte qui suppose le contraire : les lois, les corpuscules, l’ordre ne sont pas fondamentaux mais un produits, construits et déconstruits, successivement par des principes d’auto-organisation émergente.

L’auteur de ce livre est Robert B. Laughlin qui a travaillé et obtenu le prix Nobel de physique sur un sujet largement inconnu du grand public : l’effet Hall quantique.

Les partisans du réductionnisme eux-mêmes sont contraints d’employer des expressions tout à fait inadéquates d’un point de vue réductionniste comme celles de quasi particules, d’absence de position fixe d’une particule, de flou quantique, de particules corrélées à distance (avec des états enchevêtrés). Si la matière était juste faite d’un jeu de légo de corpuscules, on ne voit pas bien ce qui les attacherait, ce qui leur permettrait de communiquer entre elles, ce qui leur permettrait d’absorber ou d’émettre de l’énergie, ce qui leur permettrait aussi de se transformer en énergie, ce qui permettrait encore à l’énergie de se transformer en particules, ce qui permettrait aux antiparticules d’exister, etc…

L’image des particules est insuffisante, même si elle est pertinente si on ne sort pas d’un domaine étroit d’étude. Par contre, elle ne permet nullement de passer d’un domaine à un autre de dimensions entre lesquels existent un saut d’une série de lois à une autre. Le niveau dit inférieur ne permet pas d’expliquer les lois au niveau supérieur ni l’inverse. Les lois à différents niveaux ne sont pas logiques les unes vis-à-vis des autres, mais au contraire émergentes. Personne n’a jamais réussi à déduire les lois d’un niveau des lois du niveau supérieur ni inférieur.

Ce n’est pas l’ordre à un niveau qui produit l’ordre à un autre niveau, mais le désordre qui produit l’ordre par auto-organisation émergente. Laughlin développe des idées d’Ilya Prigogine, de Stephen Jay Gould, de Murray Gell-Mann, de Per Bak, de P.W. Anderson, de Stuart Kauffman, et de bien d’autres auteurs partisans de l’auto-organisation. Il est nécessaire préalablement de savoir de quoi on parle en matière d’émergence, d’auto-organisation ou de holisme. Ces termes sont moins connus que l’atomistique, les structures moléculaires, la logique des lois prédictives, etc…

Il n’y a rien de métaphysique dans ces notions.

Il y a émergence d’un niveau d’organisation ou auto-organisation lorsqu’au sein d’un désordre apparaît un ordre. Cela semble miraculeux, mais cela ne l’est pas.

Les exemples de telles émergences sont courants dans notre vie quotidienne. Les changements d’ordre de la matière en sont un exemple. La cristallisation, la glaciation, l’apparition de rouleaux de convection, la formation des étoiles et planètes sont des phénomènes émergents. Dans la physique moderne, la notion d’émergence est indispensable dans toutes les transitions entre niveaux d’organisation et entre états de la matière. Cette dernière n’est pas une simple agglomération de particules. Le tout n’est pas la somme des parties. Le regroupement apparent de particules produit quelque chose d’étonnant : en se regroupant, les particules apparentes, qui se sont apparemment additionnées, ont minimisé leur énergie totale. Comment l’auraient-ils pu s’ils se contentaient de s’agglomérer ? L’électron ou le proton, loin d’être des objets existant de manière individuelle, isolée, n’existent que par rapport à un environnement. Et toutes les caractéristiques de la matière n’existent que par rapport à un environnement, à des effets collectifs. Cet environnement peut être le vide quantique (qui n’est pas le rien) ou l’environnement matériel et énergétique.

Quant aux structures plus complexes que la particule, leurs caractéristiques n’existent qu’en relation avec le matériau et non individuellement. Par exemple, une molécule unique n’a pas de température ni de pression… Des effets collectifs d’organisation qui ne peuvent, Laughlin en a montré dans ses recherches sur des phénomènes de la physique.

Les questions de l’émergence contre le réductionnisme, de l’auto-organisation contre la conception mécaniste sont des questions philosophiques et dépassent largement le niveau de la physique. Elles ne concernent pas que des spécialistes des sciences. On trouve des réductionnistes en biologie, en anthropologie, en histoire, en politique. En biologie aussi, ils sont dominants. En histoire, en politique, en science des civilisations, le réductionnisme est plus facile à combattre. Une thèse réductionniste consisterait à affirmer que le caractère d’un état est déterminé par la personne qui gouverne ou a le plus d’influence. C’est une thèse très ancienne et peu défendue. La plupart des gens comprennent que l’Etat ne disparaît pas, ne change pas quand le chef de l’Etat meurt. Ce n’est les individus qui déterminent le caractère de l’état mais les grands groupes d’hommes, les relations entre collectivités d’hommes. Même ceux qui ne soutiennent pas la thèse marxiste de la lutte des classes la comprennent.

Le réductionnisme consiste à décomposer en éléments et à chercher les lois globales comme issues des lois auxquels obéissent les éléments. Un point de vue réductionniste en Histoire consisterait à raconter la journée de chaque participant à la prise de la Bastille, sa vie personnelle, comment il avait mal aux dents la veille, comment il s’était engueulé avec sa concierge,... pour expliquer cet événement historique... La philosophie réductionniste de l’Histoire peut, par exemple, affirmer que ce sont les individus qui expliquent que les hommes organisent des guerres, des massacres ou s’exploitent mutuellement. C’est un point de vue assez limité et plutôt faux… Ce sont les mêmes hommes qui supportaient passivement l’Ancien régime et ont explosé à partir de 1789. Individuellement, ils sont restés les mêmes, mais collectivement ils ont changé. Et cela s’est marqué dans la manière dont ils se sont organisés collectivement. L’apparition de structures d’auto-organisation, spontanées apparues, nouvelle et n’ayant d’existence précédente, est caractéristiques de ces situations de transitions dans une dynamique de saut qualitatif. Il en va de même en physique. Il est erroné de croire que les particules soient toujours identiques à elles-mêmes, se contentant de se déplacer, de vibrer, de tourner, de se choquer ou de s’unir et de se désunir. Le vide peut faire apparaître des particules ou les faire disparaitre. L’existence ou la non-existence des particules est relative à l’état du milieu, vide ou matériel, qui les entoure.

Pas plus que les humains, les particules n’ont de simples existences individuelles. Aucune particule n’existe seule sans l’espace-temps du vide. Son existence n’est rien d’autre qu’une déformation de cet espace-temps du vide ! De même qu’aucun être humain n’existe sans l’environnement indispensable aux êtres humains.

Au niveau macroscopique, on ne voit jamais intervenir simplement le niveau microscopique au travers de simples effets particulaires. Quand le niveau quantique intervient à notre échelle, c’est le produit d’actions collectives, de structures d’organisation concernant un grand nombre de particules et ne reposant pas sur des propriétés individuelles de ces particules. Dans « Un univers différent », Robert B. Laughlin explique :

« Notre vision conflictuelle de la nature reflète un conflit interne à la nature : elle se compose simultanément d’éléments primitifs et de structures organisationnelles stables, complexes, qui se constituent à partir d’eux. Un peu comme la mer. (On peut assimiler la mer à une réalité stable, mais les mers sont continuellement vidées par évaporation et remplies par les fleuves. Bien des fixités et stabilités apparentes sont des produits de tels phénomènes dynamiques agissant en sens inverse.) (…)

La fiabilité des rapports de cause à effet dans le monde naturel nous apprend quelque chose sur nous-mêmes, car elle est due à des principes d’organisation, pas à des règles au niveau microscopique. Autrement dit, les lois de la nature qui sont importantes pour nous émergent par un processus collectif d’auto-organisation (…) Contrairement à ce que l’on pensait, ce n’est pas les lois qui produisent les principes d’organisation, mais l’inverse. Cela nécessite une réflexion sur les concepts, sur la philosophie. Mais c’est terrible : la science s’est éloignée du reste de la vie intellectuelle, alors qu’elle n’avait pas du tout commencé ainsi. (…)

Nous pouvons prouver, dans des cas simples, que l’organisation peut acquérir un sens et une vie bien à elle, et commencer à transcender les éléments dont elle est faite. « Le tout n’est pas la somme de ses parties » n’est pas seulement une idée, mais aussi un phénomène physique : voilà le message que nous adresse la science physique. La nature n’est pas uniquement régie par une règle fondamentale microscopique, mais aussi par de puissants principes généraux d’organisation. Si certains de ces principes sont connus, l’immense majorité ne l’est pas. (…)

Les éléments fondamentaux de ce message sont formulés dans les très nombreux écrits d’Ilya Prigogine, et avec plus d’originalité encore, dans un célèbre essai de P.W. Anderson publié il y a plus de trente ans sous le titre « Plus signifie différent ». (…)

Je suis de plus en plus persuadé que TOUTES les lois physiques que nous connaissons sont d’origine collective. La distinction entre lois fondamentales et lois qui en découlent est un mythe, de même que l’idée de maîtriser l’univers par les seules mathématiques. La loi physique ne peut pas être anticipée par la pensée pure, il faut la découvrir expérimentalement, car on ne parvient à contrôler la nature que lorsque la nature le permet, à travers un principe d’organisation. On pourrait baptiser cette thèse « la fin du réductionnisme » (réductionnisme = divisons en composantes de plus en plus petites et nous finirons forcément par comprendre). (…)

Pour défendre ma position, il me faudra avancer franchement quelques idées choquantes : la matérialité du vide de l’espace-temps, l’hypothèse selon laquelle la relativité n’est pas fondamentale, la nature collective de la possibilité même du calcul informatique, les barrières épistémologiques du savoir théorique, les entraves du même ordre à la falsification de l’expérience, et le caractère mythologique d’importantes composantes de la physique théorique moderne. (…)

Le monde est riche en régularités complexes et en relations de causalité quantifiables, et c’est grâce à elles que nous pouvons comprendre les phénomènes et exploiter la nature à nos propres fins. Mais la découverte de ces relations est regrettablement inattendue. (…) La thèse selon laquelle toutes les lois de la nature sont connues n’est qu’une composante de ce bluff. (…)

La solution de la contradiction, c’est le phénomène de l’émergence. (…) L’émergence, c’est un principe d’organisation. Il est clair que les sociétés humaines, par exemple, ont des règles d’organisation qui dépassent l’individu. Une compagnie automobile ne va pas cesser d’exister si l’un de ses ingénieurs est écrasé par un camion. Mais le monde inanimé aussi a des règles d’organisation, et elles aussi expliquent beaucoup de choses qui sont importantes pour nous, dont la plupart des lois physiques de macroniveau dont nous nous servons dans notre vie quotidienne. Des réalités banales comme la cohésion de l’eau ou la rigidité de l’acier sont des exemples simples, mais il y en a bien d’autres, innombrables. (...) De même, l’aptitude de certains métaux à expulser totalement les champs magnétiques quand on les refroidit à température ultrabasse nous intéresse vivement parce que les atomes dont ils sont constitués ne peuvent pas le faire. (...)

Puisque les principes d’organisation - ou plus exactement leurs conséquences - peuvent être des lois, celles-ci peuvent elles-mêmes s’organiser en lois nouvelles, et ces dernières en lois encore plus neuves, etc. Les lois du mouvement des électrons engendrent les lois de la thermodynamique et de la chimie, qui engendrent les lois de la rigidité et de la plasticité, qui engendrent les lois des sciences de l’ingénieur. (...)

Seule l’expérience peut trancher entre des phénomènes qu’on croyait universels et ceux qui ne le sont pas. (...) Le tout petit groupe d’expériences qui sont d’une extrême exactitude a en physique, pour cette raison, une importance considérablement supérieure à sa taille. (...) Ces expériences très spéciales, il y en a dix ou vingt selon la façon dont on les compte, la plupart ne sont familières qu’aux experts. Il y a la vitesse de la lumière dans le vide, que l’on connaît à présent à une précision supérieure à un dix millième de milliardième. Il y a la constante de Rydberg, le nombre qui définit la quantification des longueurs d’onde de la lumière émise par les gaz atomiques dilués et responsables de la fiabilité stupéfiante des horloges atomiques : on la connaît au cent millième de milliardième près. Autre exemple : la constante de Josephson, le nombre qui indique le rapport entre la tension qu’on applique à un type précis de "sandwich" métallique et la fréquence des ondes radio qu’il émet : on la connaît à un degré d’exactitude d’un cent millionième. Ou encore la résistance de Von Klitzing, le nombre qui indique le rapport entre le courant électrique qu’on fait passer à travers un semi-conducteur de conception spéciale et la tension induite perpendiculairement au moyen d’un aimant : on la connaît à un degré d’exactitude d’un dix milliardième.

Paradoxalement, l’existence de ces expériences très reproductibles nous inspire deux points de vue incompatibles sur ce qui est fondamental. Selon le premier cette exactitude nous fait toucher du doigt certains des éléments primitifs les plus simples dont est fait notre monde complexe et incertain. Nous disons que la vitesse de la lumière est constante parce qu’elle l’est vraiment et parce que la lumière n’est pas constituée de composants plus élémentaires. Avec ce mode de pensée, nous réduisons ces expériences précises à une poignée de constantes dites "fondamentales".

L’autre point de vue, c’est que l’exactitude est un effet collectif qui se produit en raison de l’existence d’un principe d’organisation.

Par exemple : le rapport entre la pression, le volume et la température d’un gaz comme l’air. Le nombre universel qui définit la loi des gaz parfaits est connu à une exactitude d’un millionième, mais d’énormes erreurs apparaissent quand on le mesure dans de trop petits échantillons de gaz et il cesse complètement d’être mesurable au niveau de quelques atomes. La raison de cette sensibilité à la taille, c’est que la température est une propriété statistique.

L’exactitude collective est un concept que les non-scientifiques ont souvent du mal à comprendre, mais il n’est pas si difficile.

On a de nombreux exemples familiers dans la vie quotidienne. Comme le comportement d’un gaz parfait, l’heure de pointe est une certitude collective. L’engorgement du trafic est un phénomène simple, fiable, qui naît de décisions complexes prises par un grand nombre d’individus qui vivent leur vie. Il n’est pas nécessaire de savoir ce qu’ils ont mangé au petit déjeuner, où ils travaillent combien ils ont d’enfants, comment ils s’appellent, etc, pour prévoir qu’à huit heures et quart, ça va être l’enfer.

Un bel exemple d’effet collectif déguisé en en effet réductionniste est la quantification des spectres atomiques. La lumière est émise par des gaz atomiques dilués, avec des longueurs d’onde spéciales si insensibles aux influences extérieures qu’on peut s’en servir pour fabriquer des horloges précises au cent millième de milliardième. Mais ces longueurs d’onde ont un décalage détectable au dix millionième qui n’aurait pas dû exister dans un monde idéal ne contenant rien d’autre que l’atome. (…) Autrement dit, l’espace apparemment vide ne l’est pas du tout, il est plein de « quelque chose ». Le mouvement sympathique de ce « quelque chose » quand la matière passe change légèrement les propriétés de celle-ci, exactement de la même façon que le mouvement sympathique des électrons et des atomes dans une vitre de fenêtre modifie les propriétés de la lumière qui la traverse, et provoque sa réfraction. (…) Donc, même la constance du spectre atomique a en réalité des origines collectives – le phénomène collectif, en l’occurrence, étant l’effet de l’univers entier.

Autre cas de « collectivisme », bien plus immédiat et troublant : la détermination de a charge de l’électron et de la constante de Planck par des mesures macroscopiques. La charge de l’électron est l’unité indivisible de l’électricité. La constante de Planck est la relation universelle entre le moment et la longueur qui définit la nature ondulatoire de la matière. Il s’agit de deux concepts résolument réductionnistes et, pour déterminer leur valeur, on recourt traditionnellement à de gigantesques machines (...). Or, il s’avère que la valeur la plus précise ne vient pas de ces machines, mais simplement d’une combinaison des constantes de Josephson et de Van Klitzing, dont la mesure n’exige rien de plus compliqué qu’un cryoréfrigérateur et un voltmètre. Cette découverte a été une immense surprise, car les échantillons sur lesquels on mesure les effets Josephson et Von Klitzing sont extrêmement imparfaits : ils regorgent d’impuretés chimiques, d’atomes déplacés et de structures atomiques complexes comme les frontières de grains et les morphologies de surface, autant de facteurs qui auraient dû perturber les mesures au niveau d’exactitude rapporté. Le fait même qu’ils ne le font pas PROUVE que de puissants principes d’organisation sont à l’œuvre.

L’une des raisons pour lesquelles les physiciens parlent si rarement de la nature collective des mesures des constantes fondamentales, c’est qu’elle a des implications vraiment troublantes. En effet, puisque notre connaissance du monde physique repose sur la certitude expérimentale, il est logique d’associer la vérité la plus forte à la mesure la plus sûre. Il faut donc en conclure qu’un effet collectif est plus vrai que les règles microscopiques dont il serait censé dépendre…

Dans le cas de la température, quantité qui n’a jamais eu de définition réductionniste (une seule molécule, un seul atome, une seule particule ou un trop petit nombre d’entre eux ne définit aucune température), cette conclusion est facile à comprendre et à accepter. (…) Mais, pour la charge de l’électron, c’est une autre affaire. Nous avons pris l’habitude de la penser comme un élément de base, un « cube de construction » de la nature, qui n’exigerait aucun contexte collectif pour avoir un sens. Les expériences en question réfutent cette affirmation, assurément. Elles révèlent que la charge de l’électron n’a de sens qu’au sein d’un contexte collectif : soit le vide de l’espace qui modifie cette charge de la même façon qu’il modifie les longueurs d’onde des atomes, soit une matière dont les propres effets préviennent ceux du vide. Ce rôle préventif de la matière signifie nécessairement que les principes organisationnels à l’œuvre sont les mêmes dans son cas et dans celui du vide, sinon les effets tiendraient du miracle.

L’énigme de la charge de l’électron, en fait, n’est pas unique. TOUTES les constantes fondamentales exigent un contexte environnemental pour faire sens. Dans la pratique, la distinction entre quantités réductionnistes et quantités « émergentistes » en physique n’existe pas. (…)

La loi physique universelle est l’iceberg dont la constante physique est la pointe émergée. (…) Comme pour les mesures universelles exactes nous avons tendance à distinguer lois d’origine microscopique et lois d’origine collective, tout en les qualifiant de « fondamentales » dans les deux cas. Et, comme pour les constantes, la différence entre ces deux catégories s’évanouit lorsqu’on regarde les expériences de près.

Au fil des ans, tandis que s’allongeaient la liste des succès des lois de Newton, on a commencé à en faire un usage spéculatif. (…) Exemple : la théorie cinétique des gaz postule que le gaz est composé d’atomes qui obéissent aux lois de Newton, avec des forces répulsives à faible portée qui les amènent à se caramboler les uns les autres comme des boules de billard. Elle calcule alors que ces atomes mythiques ont une forte tendance à être enchevêtrés par leurs collisions dans des dispositions aléatoires. (…) Mais ce raisonnement a un vice évident : le comportement qui sert à mettre à l’épreuve l’hypothèse est peut-être un phénomène collectif universel. Si c’est le cas, la mesure est fondamentalement insensible aux suppositions microscopiques, telle l’existence des atomes, et ne peut donc absolument pas les vérifier. (…) Les lois de Newton, en fait, sont fausses à l’échelle des atomes. Au début du vingtième siècle, on a découvert que les atomes, les molécules et les particules subatomiques sont décrits par les lois de la mécanique quantique – règles si différentes de celles de Newton que les scientifiques ont dû faire de gros efforts pour trouver les mots susceptibles de les formuler convenablement. (…) Donc il s’avère que les légendaires lois de Newton sont émergentes. Elles n’ont rien de fondamental, mais résultent de l’agrégation de la matière quantique en fluides et en solides macroscopiques – un phénomène organisationnel collectif. (…)

J’ai été éclairé pour la première fois sur la nature émergente des lois de Newton en lisant le célèbre article de P.W. Anderson « More is different » (Plus, c’est autre chose). Anderson avait compris (…) que le comportement supraconducteur nous révèle, par son exactitude, que la réalité quotidienne est un phénomène d’organisation collective.

Les états de la matière – dont les plus connus sont le liquide, le gazeux et le solide – dont des phénomènes organisationnels. Beaucoup sont surpris de l’apprendre puisqu’ils paraissent si fondamentaux et familiers, mais c’est la pure vérité. (…) Si l’organisation d’un solide cristallin – l’arrangement ordonné des atomes en réseau – faisait faux bond, la rigidité s’évanouirait, car sous cette structure il n’y a aucun actif physique. (…) Paradoxalement, l’extrême fiabilité des phénomènes liés aux états de la matière fait d’eux le pire cauchemar des réductionnistes (…). Un phénomène exact tel que la rigidité ne peut pas du tout dépendre des détails.

De plus, si certains aspects des états de la matière sont universels, donc faciles à prévoir, d’autres, comme l’état que l’on a dans telles ou telles conditions, ne le sont pas. L’eau est un cas particulièrement embarrassant. La glace de l’eau ordinaire présente, au dernier décompte (le nombre continue d’augmenter avec les nouvelles découvertes), onze états cristallins distincts, dont aucun n’a été correctement prédit à partir des principes premiers. (…)

Les états sont un cas d’émergence élémentaire et bien étudié, qui démontre de façon convaincante que la nature a des murs d’échelle : les règles microscopiques peuvent être parfaitement vraies mais sans aucune pertinence pour les phénomènes macroscopiques car ce que nous mesurons leur est insensible ou au contraire trop sensible. Bizarrement, c’est parfois les deux à la fois. Par exemple, il est actuellement trop difficile de calculer à partir de rien quel état cristallin de la glace va se former à une température et sous une pression données, mais il n’y a aucun besoin de calculer les propriétés macroscopiques d’un état donné, parce qu’elle sont entièrement génériques. (…)

Il y a quantité d’autres exemples quotidiens de l’exactitude créée par les états. (…) L’exemple le plus simple d’exactitude émergente est la régularité des réseaux cristallins, l’effet qui, en dernière analyse, assure la rigidité des solides. L’ordre atomique des cristaux peut être parfait à des échelles d’une longueur époustouflante - dans de très bons échantillons , jusqu’à cent millions d’espacement interatomiques. (…) L’aspect le plus stupéfiant du réseau cristallin, c’est qu’il reste exact quand la température monte. (…) Même dans de bons cristaux, chaque atome est toujours en train de bouger , donc toujours légèrement décalé par rapport à son emplacement idéal dans le réseau à quelque moment qu’on l’observe – c’est la signification physique de la chaleur. La preuve que ce mouvement existe, c’est qu’une fraction des rayons X diffusés sur un échantillon est renvoyée avec un léger changement de longueur d’onde (…). Mais, surprise, cet effet ne brouille pas les angles de déviation précis des rayons X. (…) C’est que la localisation d’un atome continue de prédire la localisation d’un autre – avec un peu d’incertitude – arbitrairement loin dans la structure. Les erreurs de position ne s’accumulent pas. (…) Les positions de réseau d’un solide ont manifestement un sens exact même quand les atomes ne s’y trouvent pas exactement.

L’exactitude du « registre » du réseau sur longue distance explique la soudaineté de la fonte. L’aptitude d’un atome à prédire la position d’un autre arbitrairement loin ne peut pas être partielle, pas plus qu’une femme ne peut être partiellement enceinte. Quand cette prédictibilité est là, la simple logique nous dit que les autres propriétés qu’on associé normalement aux solides, telles la forme et l’élasticité, doivent l’être aussi. Elles ne peuvent donc être perdues que sur le mode de la « catastrophe ». Il y a malheureusement, des malentendus constants quant à l’importance de cette exactitude dans la nature de l’état solide. La plupart des substances ne sont pas parfaitement régulières – même les métaux réels, qui doivent à des imperfections structurelles et chimiques nombre de leurs propriétés utiles à l’ingénieur. (…)

Une fois que l’on sait ce qu’il faut chercher, il devient facile de démontrer la nature organisationnelle d’états autres que le solide. On repère sans ambiguïté un état collectif de la matière lorsqu’un ou plusieurs comportements sont exacts dans un vaste agrégat mais inexacts, ou inexistants, dans un petit. Puisque le comportement est exact, il ne peut pas changer progressivement lorsqu’on fait varier des conditions extérieures comme la pression ou la température : il ne peut changer qu’abruptement, dans une transition d’état. Une signature claire et nette du phénomène organisationnel, c’est donc une transition d’état brutale. Mais la transition elle-même n’est qu’un symptôme. L’important n’est pas la transition, c’est l’exactitude émergente qui la nécessite. Les transitions de la glace, fonte et sublimation, signalent la destruction de l’ordre cristallin et son remplacement par un autre ensemble de comportements exacts collectivement baptisé « hydrodynamique ». (…) Comme les lois de la rigidité dans les solides, celles de l’hydrodynamique deviennent toujours plus exactes quand on les mesure à une plus grande échelle de longueur et de temps, et s’évanouissent à la limite opposée.

Un examen attentif révèle que le nombre d’atomes est nécessairement trop grand, car le dispositif ne fonctionnerait pas s’il était petit. Détecter la désintégration radioactive d’un atome au moyen d’un autre atome, par exemple, n’a pas de sens, puisque cela reviendrait à substituer un minuscule objet non mesurable à un autre. (…) Il y a quelque chose dans le concept humain de mesure qui exige que l’appareil soit grand. (…) Tous les détecteurs quantiques sont faits de solides, donc tous exploitent cette caractéristique de l’état solide qu’est la brisure de symétrie, effet qui ne se produit que dans la limite de la grande dimension. Une observation, pour se qualifier comme telle selon la définition humaine traditionnelle, ne doit pas modifiée par l’acte d’observer. (…)

Von Klitzing a découvert quelque chose qui n’aurait pas dû exister – ce qui nous rappelle brutalement que notre compréhension du monde st limitée, que nos préjugés ne sont pas des lois (…) – une mesure qui devenait anormalement stable sur toute une gamme d’intensités du champ magnétique. (…) La découverte de cette constance inattendue, personne ne l’avait prédite. (…) Lorsqu’on approche un aimant d’un fil électrique où passe un courant, une tension perpendiculaire à la direction du courant apparaît. Elle fait parce que les électrons qui passent dans le conducteur sont déviés par l’aimant, exactement comme ils le seraient à l’air libre. Ils s’accumulent donc d’un seul côté du fil, jusqu’au moment où la tension de réaction qu’ils génèrent équilibre exactement la déviation magnétique. On appelle ce phénomène l’effet Hall. (…)

Aux températures ordinaires, (…) le rapport entre la résistance de Hall et la densité est en ligne droite. Mais à des températures très basses, ce n’est plus une ligne droite mais une ligne qui frétille. Dans le cas du type particulier de semi-conducteurs qu’étudiait Von Klitzing – des transistors à effet de champ, ces frétillements se muent en un escalier aux marches extrêmement aplaties quand on baisse la température. (…) Von Klitzing a pris conscience du fait que la valeur de la résistance de Hall était une combinaison de constantes fondamentales – la valeur indivisible de la charge électrique e, la constante de Planck h et la vitesse de la lumière c, autant d’éléments que nous concevons comme les composantes de base de l’univers. (…) Nous savions tous que les échantillons de Von Klitzing étaient imparfaits, donc nous nous attendions à des variations. Lorsqu’on fabrique des semi-conducteurs, il y a toujours des différences incontrôlables – défauts structurels du réseau cristallin, dopants incorporés de façon aléatoire, oxydes amorphes à la surface, bords irréguliers laissés par la lithographie optique, petits bouts de métal éparpillés sur la surface par des fers à souder déficients quand on fixe les fils électriques, etc. (…) L’effet Hall quantique, en fait, est un magnifique exemple de perfection émergeant de l’imperfection. L’indice crucial qui le montre, c’est que l’exactitude de la quantification – c’est-à-dire l’effet lui-même – disparaît si l’échantillon est trop réduit. Les phénomènes collectifs sont courants dans la nature et occupent aussi une place centrale dans la physique moderne, donc, de ce point de vue, ce qui se passe ici n’est ni sans précédent ni difficile à comprendre. Mais l’exactitude extrême de l’effet de von Klitzing rend sa nature collective incontestable, et son importance particulière est là. (…) Si l’effet Hall quantique a levé le rideau sur l’ère de l’émergence, la découverte de l’effet Hall quantique fractionnaire a été l’ouverture de l’opéra. (…) Dan Tsui et Horst Strömer l’ont découvert par accident en cherchant des preuves de cristallisation de l’électron. (…) L’effet Hall quantique fractionnaire révèle que des quanta apparemment invisibles – en l’occurrence la charge de l’électron e – peuvent être fragmentés dans le cadre de l’auto-organisation d’états. Autrement dit, les éléments fondamentaux ne sont pas nécessairement fondamentaux. (…) L’observation des plateaux très précisément quantifiés de l’effet Hall quantique fractionnaire prouvait l’existence de nouveaux états de la matière où des excitations élémentaires – des particules – étaient porteuses d’une fraction exacte de e. (…)

La grande question que pose implicitement la découvert de Von Klitzing n’est pas : « La loi physique existe-t-elle ? » mais « Qu’est-ce que la loi physique, d’où vient-elle et quels sont ses effets ? » Du point de vue réductionniste, la loi physique est l’impulsion causale de l’univers, elle vient de nulle part et tout est son effet. Du point de vue émergentiste, la loi physique est une règle de comportement collectif, elle est une conséquence de règles de comportement plus primitives à l’étage en dessous (…). La vraie physique est toujours inductive, aucun phénomène organisationnel collectif – même aussi élémentaire que la cristallisation et le magnétisme – n’a jamais été déduit (…). La constance des effets Meissner et Josephson en est une preuve expérimentale : un principe d’organisation est à l’œuvre dans les supraconducteurs, celui que nous assimilons aujourd’hui à la multiplicité de Schrieffer et que nous appelons la « brisure de symétrie du superfluide ». (…) Le combat sur la théorie de la supraconductivité a été l’un des plus longs et des plus âpres de l’histoire de la science, essentiellement parce que le problème central était conceptuel. (…)

C’est triste à dire, mais la machinerie de la science n’est pas conçue pour traiter les concepts, mais seulement les faits et les technologies. »

4 Messages de forum

  • A la base de tout, il y a... l’auto-organisation ! 24 février 2012 18:19, par moshe

    Il y a émergence d’un niveau d’organisation ou auto-organisation lorsqu’au sein d’un désordre apparaît un ordre. Cela semble miraculeux, mais cela ne l’est pas.

    Les exemples de telles émergences sont courants dans notre vie quotidienne. Les changements d’ordre de la matière en sont un exemple. La cristallisation, la glaciation, l’apparition de rouleaux de convection, la formation des étoiles et planètes sont des phénomènes émergents. Dans la physique moderne, la notion d’émergence est indispensable dans toutes les transitions entre niveaux d’organisation et entre états de la matière. Cette dernière n’est pas une simple agglomération de particules. Le tout n’est pas la somme des parties. Le regroupement apparent de particules produit quelque chose d’étonnant : en se regroupant, les particules apparentes, qui se sont apparemment additionnées, ont minimisé leur énergie totale. Comment l’auraient-ils pu s’ils se contentaient de s’agglomérer ? L’électron ou le proton, loin d’être des objets existant de manière individuelle, isolée, n’existent que par rapport à un environnement. Et toutes les caractéristiques de la matière n’existent que par rapport à un environnement, à des effets collectifs. Cet environnement peut être le vide quantique (qui n’est pas le rien) ou l’environnement matériel et énergétique.

    Répondre à ce message

  • "Le tout (un solide, un nuage, un organisme) mène sa vie de manière autonome. Les règles qui le régissent ne dépendent pas de celles qui régissent ses constituants. Elles traduisent un autre niveau d’organisation. Elles témoignent du phénomène le plus mystérieux et donc le plus fascinant de la nature : l’émergence".

    Robert B. Laughlin, La Recherche, 07/2005

    Répondre à ce message

  • A la base de tout, il y a... l’auto-organisation ! 24 juin 2014 05:52, par Cosentino

    Mario Cosentino
    Enseignant en Mathématique & Physique
    Formation Universitaire en Astronomie & Astrophysique
    Bonjour,

    Depuis 1988 je suis l’auteur d’un modèle d’Univers qui se nomme aujour’dui le "New Big-Bang Fractal" (NBBF) quantique.
    Mes travaux de recherche ont été l’objet de la publication de 2 livres, articles, télévision, radios,etc.
    Je possède l’ouvrage de Robert B. Laughlin. Les nombreuses équations du "NBBF" vont tout-à fait dans le sens de M. Laughlin. Celles-ci montrent, sans paramètre libre, qu’il existe un ordre sous-jacent.
    Les équations nous donnent également la dimension fractale de notre Univers. Cette dimension fractale Df est celle correspondant à l’ "EPONGE DE MENGER". Nous savons que sa valeur est de
    Df = 2,726 8...
    Avec cette valeur il devient possible de faire des l’hypothèses afin de vérifier si, par exemple le diamètre de notre Soleil serait fractal ou pas...
    A ce jour de nombreuses observations et expériences vont dans le sens des prévisions du "NBBF".
    Pour plus d’information concernant mes travaux de recherche je vous invite à visiter mon blog. Pour celà allez S.V.P. dans Google et mettre : mario cosentino
    Est-il possible d’avoir plus d’informations vous concernant ?...
    Comment pourrions-nous conjuguer nos efforts afin qu’il y est plus d’informations au sujet de cet ordre sou-jacent ?...

    Très cordialement

    Répondre à ce message

  • Franco Selleri dans « Le grand débat de la théorie quantique » :

    « Les neutrons sont des particules instables et finissent par se désintégrer en proton + électron + antineutrino au bout d’un temps correspondant à leur vie moyenne. Celle-ci est d’environ mille secondes (...) des neutrinos peuvent vivre beaucoup moins (disons cent secondes) ou beaucoup plus (disons trois mille secondes) que leur vie moyenne de trois mille secondes. Le problème se pose très naturellement de comprendre les causes qui déterminent les différentes vies individuelles dans les différents systèmes instables. (…) (ces variations peuvent s’expliquer) par des fluctuations du vide dans de petites régions entourant la particule ». On ne dispose par contre d’aucune description de l’objet neutron ou de l’objet particule qui explique ces vies de durées diverses et cette durée moyenne. Mais nous verrons que la physique quantique va plus loin et remet carrément en question que la particule soit un objet individuel : « En théorie quantique, tous les concepts classiques, une fois appliqués à l’atome, sont aussi bien ou aussi mal définis que « la « température de l’atome. (...) Le concept d’existence de l’électron dans l’espace et le temps conduit à un paradoxe. » D’où la nécessité de définir la particule comme une structure émergente issue des interactions du vide et non comme une chose préexistante et fixe.

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0