Strict Standards: Only variables should be passed by reference in /homepages/36/d206324349/htdocs/site_org1G/config/ecran_securite.php on line 180
Qu’est-ce que l’agraindissement (ou coarse graining) ? - Matière et Révolution
English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - SCIENCES - SCIENCE > Atome : La rétroaction de la matière/lumière et du vide (de la microphysique à (...) > Qu’est-ce que l’agraindissement (ou coarse graining) ?

Qu’est-ce que l’agraindissement (ou coarse graining) ?

mardi 24 mars 2015, par Robert Paris

Murray Gell-Mann dans "Le quark et le jaguar" :

"Lorsque l’on définit la complexité, il est toujours nécessaire de définir un niveau de détail où l’on s’arrête dans la description du système, ignorant les détails les plus fins. Les physiciens appellent cela "l’agraindissement".

La notion d’agraindissement ne doit pas être confondue avec l’agrandissement. Nous sommes accoutumés à une vision de l’univers selon lequel on se rapproche de plus en plus d’un objet pour en voir les détails : cela provient d’une opération d’agrandissement/réduction très différente de celle d’agraindissement. Cette dernière notion, celle de la finesse des détails de la description, suppose que l’on augmente non le zoom mais le niveau "de grain". L’expression, tirée de la photographie, signifie que l’on augmente la quantité de grains par unité de surface contrairement à l’agrandissement qui augmente la taille de la représentation. A ce stade, l’image n’est pas perceptible. Il faut amplifier la quantité d’Ag° pour que le contraste apparaisse entre les zones éclairées et les zones non-éclairées. Cette amplification se nomme agraindissement, c’est-à-dire augmenter l’étendue des îlots de cristaux de Ag°. Ce processus est celui du développement photo proprement dit.

L’idée de précision de la description est fondamentale dans nombre de domaines. En Histoire, faut-il connaitre tous les détails pour décrire un événement ? Pour comprendre la journée de la prise de la Bastille, faut-il savoir si chaque participant avait mangé, s’était brossé les dents, avait dit bonjour à sa concierge ?

Pour étudier un fluide (mouvement, température, pression, flux, ...) faut-il suivre chaque molécule ?

Pour savoir comment fonctionne un écosystème, faut-il connaitre la vie de chaque individu qui le compose, ou, pire encore, connaitre l’état physique interne de chacun ?

La capacité de savoir comment négliger les niveaux trop inférieurs peut s’appeler étapes de l’histoire humaine, lutte des classes, loi des espèces, hérédité du génome ou étude des particules. Elle s’appelle également en physique renormalisation, chromodynamique quantique...

La lutte des classes (par rapport aux individus) en Histoire comme la génétique en termes d’évolution (par rapport à l’agitation biologique moléculaire) ou la physique classique (par rapport au niveau quantique) sont des histoires ""à gros grains". Leur validité dépend d’abord du bon choix de la précision c’est-à-dire du choix de négliger l’agitation sous-jacente.

On pourrait penser que l’existence de multiples niveaux de structure et d’organisation ne sont pas gênants puisqu’ils sont emboités et interactifs mais c’est tout le contraire. En effet, il ne s’agit pas d’une construction par addition. Les niveaux sont émergents les uns par rapport aux autres. Un niveau agité peut produire une structure stable. un niveau aléatoire peut produire un état déterministe.

Cela a des conséquences fondamentales :

- il n’existe pas un seul niveau de description et le niveau choisi change complètement la forme de celle-ci.

- l’Univers a une très grande richesse d’apparences diverses

- Il n’est pas seulement fait de niveaux hiérarchiques mais construit aussi des interactions dynamiques entre eux.

- Il y a une discontinuité fondamentale entre les physiques à chaque niveau de grain, par exemple entre classique et quantique, entre vide et matière, entre inerte et capable d’apprentissage...

Cette notion d’agraindissement est très utilisée en physique. En effet, les physiciens adorent les milieux homogènes et isotropes, dans lesquels on peut négliger nombre de paramètres et obtenir facilement des équations qui décrivent et expliquent parfaitement les phénomènes. Le seul détail qui cloche est que de tels milieux sont rares dans le monde réel et que, par conséquent, nombre de formules ne fournissent que des approximations, très fines ou grossières, de la réalité. Ce phénomène à déjà été souligné par le Physicien M. Gell Mann (prix Nobel, découvreur des quarks) qui lui a donné le nom “d’agraindissement” : notre façon d’appréhender un phénomène est directement lié à la résolution spatiale et temporelle de notre approche, et les lois physiques décrivant le =onde ne sont pas le même selon le degré de finesse, d’”agraindissement” de notre analyse.

Ainsi, prenons le simple écoulement de l’eau dans un tuyau : à grande échelle, nous pouvons considérer que tout le fluide s’écoule à la même vitesse, mais si nous affinons notre analyse, nous devons considérer que les frottements contre le tuyau ralentissent localement l’écoulement. A plus forte résolution, notre tuyau lisse deviendra granuleux, et les tourbillons d’éjection et d’échappement, dans leur succession temporelle, se distribueront selon la vitesse du fluide, et donc de façon anisotrope : une analyse globale deviendra alors impossible.

Et au milieu coule une rivière

Ainsi, l’échelle de la rugosité organise l’écoulement d’un fluide, modifiant et influant sur la production et la dissipation de tourbillons divers dont la répartition est fortement anisotrope. L’écoulement lui-même, dans sa globalité, ressemble davantage à une structure émergente résultant des interactions. Des vortex qui s’y développent qu’au résultat d’une sommation de l’influence de structures élémentaires.

Bien que décrit, dans des conditions idéales, par le calcul, l’écoulement d’un fluide a pu être reconstitué et simulé au moyen d’automates cellulaires évoluant en interaction à partir de règles simples, mais à l’évolution imprévisible.

Toutefois, les difficultés rencontrées ne sont pas une limite à la connaissance : les structures émergentes possèdent la propriété de pouvoir, parfois, être caractérisées par un paramètre simple en décrivant l’évolution. Par exemple, pour un tas de sable en croissance, prévoir le moment où ses flancs vont s’ébouler en calculant le mouvement de chacun de ses grains est d’une difficulté colossale, mais en fait ce phénomène ne dépend que d’un seul paramètre, aisément mesurable : la pente du tas ! C’est un agraindissement mal choisi qui rend le problème insoluble.

La notion d’agraindissement est directement liée à celle de chaos déterministe : le degré de détail devient en effet déterminant dans ce cas.

Le monde existe simultanément à toutes les échelles et elles sont interactives, mais on ne peut les observer qu’en interagissant à un certain niveau. Si on se donne les moyens d’observer dans un temps plus court (avec plus d’énergie), on trouve tout un monde de points dont on ignorait l’existence en observant à un autre niveau (appelé niveau d’agraindissement). L’astrophysicien Laurent Nottale montre, dans « La complexité, vertiges et promesses », que cette question est un produit de l’interaction d’échelles : « La nature même de l’espace-temps est changée car elle contient en réalité ces changements d’échelle d’une manière intrinsèque et irréductible à l’espace-temps ordinaire qui est, lui, dans la vision physico-mathématique, un ensemble de points. (...) En réalité, cette vision dans laquelle on représente le monde sous forme de points prétend faire des mesures avec une précision infiniment grande – à chaque petit intervalle spatial correspond un petit intervalle de temps. Or, c’est la mécanique quantique qui nous dit qu’il faudrait une énergie infinie pour pouvoir faire une telle mesure. » On pourrait se dire que ceci n’est une limite que pour l’homme qui observe et mesure, mais cela est faux. Cette limite, notamment l’inégalité d’Heisenberg, est reliée au mécanisme fondamental de la matière et pas seulement à une mesure réalisée par l’homme (ou la machine produite par lui). Cela signifie qu’une précision très petite en espace nécessite un temps très grand et un temps très court nécessite une énergie très grande. Le point, défini avec une précision infinie, nécessite une énergie infinie ! La nature ne peut réaliser ses propres interactions, indépendantes de l’observateur, en dépensant sans cesse une telle énergie infinie. Elle opère nécessairement avec imprécision. C’est le mécanisme le plus économe en énergie. La convergence ne se produit qu’ensuite par émergence d’un ordre global issu du désordre des interactions variables, imprécises et imprédictibles.

Laurent Nottale poursuit ainsi : « Un point, cela n’existe pas ! D’ailleurs, cela se voit tout de suite. Si l’on dit qu’il y a un point sur une table, qu’entend-on par un point ? Quelque chose qui n’a aucune dimension. Il suffit de regarder avec une loupe pour découvrir une structure. On continue de grossir à la loupe puis on passe au microscope : à quel moment pourra-t-on voir enfin le point ? Jamais. Donc, physiquement, le point n’existe pas. (...) L’idée intéressante est que, chaque fois que l’on grossit, on voit quelque chose de nouveau. » Rappelons que, si observait du continu, chaque fois que l’on grossit, on trouverait la même chose. Un zoom sur un point, tel qu’il est conçu par la géométrie euclidienne, donnerait le même point. Un zoom sur une droite continue serait exactement la même droite continue. Jamais, en physique, tous les zooms sur le monde, à toutes les échelles, ne donnent le même monde. La Mécanique, comme l’ensemble de la Physique, a considéré la particule comme un point en déplacement, mais c’est physiquement impossible. Le physicien Léon Léderman l’explique ainsi : « Si l’électron est un point, …. , où se trouve la masse, où se trouve la charge ? » De plus, on ne peut pas connaître exactement un point, ni une succession continue de points, mais un nuage de points. Le point, si on change de résolution (agraindissement), devient non pas un segment mais un nuage de points, c’est-à-dire une série de sauts, comme mode exploratoire d’une zone. Les différents niveaux coexistent. Ils ne sont séparés, indépendants que dans la vision à une échelle, à un niveau de résolution – ou agraindissement. Cette notion ne doit pas être confondue avec celle d’agrandissement. Pour la notion d’agraindissement, une description nécessite de définir le niveau de précision du grain qui est souhaitée, comme s’il s’agissait du grain d’impression de l’imprimeur. C’est cette échelle, bien différente de l’échelle d’agrandissement d’une carte, qui définit ce que l’on va observer. Car l’agraindissement nous dit dans quel monde nous souhaitons observer la réalité. Ce n’est pas une limite de l’observation que l’on met ainsi en évidence, mais le mode de fonctionnement de la réalité. Celle-ci existe à plusieurs niveaux hiérarchiques simultanément et chaque niveau n’est pas une simple réduction des niveaux supérieurs. Il y a un saut qualitatif avec des lois nouvelles. A chaque échelle, la description est fondée sur un nuage de points, les grains. Et ceux-ci ne sont pas immobiles, inchangés, ni indépendants. La description par des objets fixes, imagés par une géométrie ou pas, ne peut correspondre à la réalité.

Il peut sembler que passer de la notion de point à celle de nuage de point ne résout aucunement le problème. En effet, si on ne peut définir le point, comment pourrait-on définir un nuage de points ? Ainsi, toute lumière dans le ciel provient soit d’une étoile soit d’un groupe d’étoiles. Une galaxie, constituée de milliards d’étoiles, nous apparaît comme un point lumineux. Si on cherche à agrandir l’image on trouve des étoiles ou des amas d’étoiles. En agrandissant encore on trouve des molécules puis des atomes, des particules, des quanta virtuels, etc, etc… A chaque saut d’échelle, un point n’était rien d’autre qu’un nuage de points. La différence d’image ne consiste pas seulement dans cette décomposition en échelles successives. Dans un nuage, les objets (les molécules) ne se contentent pas de s’additionner. Ils interagissent dans une dynamique nouvelle. Le nuage n’est pas une somme de molécules d’eau et d’air. C’est une interaction à grande échelle fondée sur des mouvements collectifs, sur des échanges d’énergie, de matière et des changements d’état. Il en va de même de la galaxie, de l’étoile, de la molécule, de l’atome et de la particule. Il ne suffit pas d’additionner des masses de gaz pour constituer une étoile ou une galaxie, ni même un nuage. Le nuage est agité et n’est jamais dans un état fixe. Pour le nuage, la fixité signifierait la disparition de la structure. Toute structure un peu trop durable entraînerait un changement brutal. C’est la chute de neige, en cas de constitution de cristaux. La structure globale ne se conserve que parce que sa dynamique interne est sans cesse agitée. Cette image nouvelle englobe donc la non-linéarité (les éléments ne se contentent pas de s’additionner), l’interaction d’échelle et les discontinuité à toutes les échelles. Avec le changement d’échelle, dans un sens et dans l’autre, le point devient un nuage de points et inversement. En son sein, il y a tout un monde. Du coup, le caractère figé du point d’Euclide disparaît. L’élémentarité, la fixité, la position parfaitement définie disparaissent pour laisser place au monde quantique des charges ponctuelles avec ses interactions contradictoires et ses changements de niveaux. C’est le saut d’échelle et le caractère dynamique qui distingue les deux conceptions (objets géométriques fixes ou non). On visualise les significations des deux manières de voir en effectuant un agrandissement. Quand on zoome sur la ligne continue, on ne voit rien. L’image agrandie est identique avec l’image de départ. Il y a exactement le même trait, le même nombre de points. Si on fait de même avec un trait discontinu, il en va très différemment. D’abord, le nuage de points discontinus devient plus clairsemé puis, d’un seul coup, à un certain seuil, on saute à une autre échelle où on trouve à la place d’un point un nouveau nuage de points. On a quelque chose de plus que l’agrandissement. C’est ce que l’on appelle l’agraindissement en faisant appel à des notions tirées de l’imprimerie ou du grain de caractère ou de l’écran télé. Cela indique aussi le nombre de grains dans un cercle de dimensions données. Toutes ces remarques ont trait à l’interaction d’échelle, phénomène qui ne peut exister au sein du continu. L’autre aspect, on l’a dit, est la dynamique. Le point est fixe, n’a pas de structure, pas d’échanges possibles ni de changement de structure. Ce n’est pas le cas du nuage de points qui serait capable d’être considéré à un certain agraindissement comme se manifestant comme un point unique. L’attribution de valeurs numériques à ce point n’est plus unique puisqu’elle se réfère à une structure interne.

Dans l’interaction d’échelle, l’entropie signifie que le niveau de grain nécessaire pour décrire l’interaction devient plus petit. La capacité de construire de l’ordre est, au contraire, un agraindissement (qui vient du terme « grain », à ne pas confondre avec un agrandissement qui vient de « grand »). Des niveaux hiérarchiques plus petits permettant d’intervenir à grande vitesse dans une zone petite peuvent, dans certains cas, atteindre le niveau supérieur. La clef de l’énigme, comme l’expose le physicien Murray Gell-Mann, suivant en cela la thèse du physicien-chimiste Ilya Prigogine, réside dans la capacité des systèmes ouverts consommateurs d’énergie d’être « sensibles aux conditions initiales ». Maxwell demandait quels démons pouvaient être capables d’intervenir pour ramener l’ordre au sein du désordre et gagner des degrés de structuration. Comme le dit le proverbe, « La diable réside dans les détails ». Ce sont les petits facteurs qui permettent à une structure d’apparaître au sein du désordre. Une structure n’est donc pas un ordre mais un cycle désordre-ordre-désordre. Et l’ordre est lui-même une destruction, celle de la symétrie (synonyme de désordre). Ce cycle se décline sur une infinité de modes suivant les structures désactivation-activation-désactivation du neurone ou onde-corpuscule-onde de la particule de matière ou encore inhibition-activation-inhibition du gène. A l’origine, il y a le désordre que les physiciens appellent symétrie. L’ordre, appelé rupture de symétrie, a un caractère d’apparition brutale et de destruction du désordre. Par exemple, un sens particulier de rotation apparaît dans un nuage de matière qui se concentre sous l’action de la gravitation. C’est le désordre des chocs des molécules qui ont fini par produire un mouvement d’ensemble et rompre la symétrie entre les deux sens de rotation qui n’en privilégiait aucun. C’est le désordre des productions de neurotransmetteurs qui donne un sens au message électrique ordonné qui n’était pas directionnel… etc, etc, …

Murray Gell-Mann dans "Le quark et le jaguar" :

"Le niveau de grain

Jusqu’à quel niveau de détail faut-il compter ? (...) Il est toujours nécessaire de spécifier un niveau de détail où l’on s’arrête dans la description du système, en ignorant les détails les plus fins. Les physiciens appellent cela l’"agraindissement". L’image qui a inspiré cette expression est probablement celle du grain en photographie. lorsqu’un détail d’une photographie est si petit qu’il nécessite un très fort agrandissement pour être identifié, l’agrandissement peut faire apparaitre les grains individuels qui composent la photographie. Au lieu d’une image claire du détail, on ne verra que quelques points n’en donnant qu’une représentation grossière. (...) Le grain d’une photographie définit une limite à la quantité d’information qu’elle peut fournir. Lorsque le film a un très gros grain, le mieux que puisse faire l’image dans son ensemble est de donner une impression sommaire de ce qui a été photographié ; elle présente un très fort agraindissement. Si un satellite espion prend une image d’un système d’armes "complexes" jusque-là inconnu, la mesure de la complexité qui pourra lui être attribué dépendra du grain de la photographie. (...) Dès les premiers temps de sa découverte, la mécanique quantique a frappé les esprits par le contraste entre son caractère probabiliste et les certitudes de l’ancienne physique classique, dans laquelle une information exacte et complète sur une situation initiale devait en principe permettre, étant donné une théorie exacte, la spécification exacte et complète du résultat. Un déterminisme de ce genre n’est jamais parfaitement applicable en mécanique quantique, mais il s’applique souvent approximativement dans ces conditions fréquentes - que l’on pourrait appeler le domaine quasi classique - où la physique classique se montre à peu près correcte.Ce domaine peut se caractériser grossièrement comme étant celui du comportement des objets pesants. (...) Les premières discussions sur la mécanique quantique sous-entendaient souvent, et énonçaient même parfois explicitement, l’existence d’un domaine quasi-classique à part de la mécanique quantique (...) Dans l’interprétation moderne de la mécanique quantique, on se propose de faire émerger le domaine quasi classique des lois quantiques, la condition initiale de l’Univers au début de son expansion y compris. Comprendre comment se produit cette émergence est un défi majeur. (...) En physique classique, il est légitime de spécifier exactement à la fois la position et la quantité de mouvement d’une particule donnée au même moment, mais en mécanique quantique, on sait bien que d’après le principe d’incertitude, ou d’indétermination, cela est interdit. la position d’une particule peut être spécifiée exactement, mais sa quantité de mouvement sera alors totalement indéterminée ; cette situation caractérise un type d’état quantique particulier pour une particule, un état de position définie. Dans un autre type d’état quantique, la quantité de mouvement sera spécifiée, mais la position complètement indéterminée. Il y a encore une variété infinie d’autres états quantiques possibles pour une seule particule, dans lesquels ni la position ni la quantité de mouvement ne seront exactement spécifiés, mais seulement une probabilité de distribution diffuse pour chacune. (...) Les histoires de l’Univers à grain parfaitement fin sont des histoires donnant une description aussi complète que possible de l’Univers entier à tout instant du temps. Que peut dire la mécanique quantique à leur sujet ? Poursuivons avec notre image simplifiée de l’Univers dans laquelle les particules n’ont pas d’autre attributs que leurs positions et leurs quantités de mouvement et où l’on ignore l’impossibilité de distinguer entre particules d’un certain type. (...) En mécanique quantique, la condition de l’Univers simplifié à un moment donné pourrait être caractérisé par la spécification des seules positions de toutes les particules (ou par les positions de certaines et les quantités de mouvement des autres, etc...). En mécanique quantique, une histoire à grain parfaitement fin de l’Univers simplifié serait composée des positions de toutes les particules à tous les instants. La mécanique quantique étant plutôt probabiliste que déterministe, on pourrait s’attendre à lui voir fournir une probabilité pour chaque histoire à grain fin. Cependant il n’en est rien. Les termes d’interférences entre histoires à grain fin ne disparaissent d’ordinaire pas, et l’on ne peut donc pas assigner de probabilité à ce genre d’histoires. (...) S’agissant des histoires de l’Univers, comment le regroupement d’histoires à grain fin en classes d’équivalence peut-il donner des histoires à gros grain avec des véritables probabilités ? Comment se fait-il que des histoires convenablement agraindies ne présentent pas entre elles de termes d’interférence ? La réponse est que le terme d’interférence entre deux histoires à gros grain est la somme de tous les termes d’interférence entre les paires d’histoires à grain fin appartenant à ces deux histoires à gros grain. La somme de tous ces termes avec leur signe positifs et négatifs, peut donner lieu à un grand nombre d’annulations. (...) Tout comportement de quoi que ce soit de l’Univers qui est ignoré dans les histoires à gros grain pourra être dit avoir été "sursommé" dans ce processus de sommation. Tous les détails qui sont laissés de côté dans les histoires à gros grain, tous les moments, tous les endroits et tous les objets qui ne sont pas retenus, sont sursommés. (...) Si le terme d’interférence entre chaque paire d’histoire à gros grain est nul, exactement ou avec une très bonne approximation, on dira alors de toutes les histoires à gros grain qu’elles décohèrent. (...) Quelle est l’explication sous-tendant la décohérence, quel est le mécanisme qui, faisant que la somme des termes d’interférence est nulle, permet d’assigner des probabilités ? C’est l’enchevêtrement de ce qui est suivi dans les histoires à gros grain avec ce qui est ignoré ou sursommé. (...) La mécanique quantique nous dit que que, dans la sommation, sous des conditions appropriées, les termes d’interférence disparaissent entre histoires impliquant des destins différents pour ce qui est ignoré. (...) Prenez l’exemple de la célèbre expérience dans laquelle un photon en provenance d’une source minuscule a la liberté de passer par l’une ou l’autre des deux fentes d’un écran sur son trajet vers un point donné d’un détecteur - ces deux histoires interfèrent et on ne peut leur assigner de probabilités. Dire par quelle fente est passée le photon n’a donc aucun sens. (...) Nous pouvons (...) illustrer la généralité de la décohérence avec un autre exemple : une description approximative de l’orbite d’un objet dans le Système solaire. La taille de l’objet peut aller de la grosse molécule à la planète (...) Considérez des histoires à gros grain dans lesquelles les destins de toutes les autres choses de l’Univers sont sursommées, comme le sont les propriétés internes de l’objet lui-même, ne laissant que les positions de son centre de masse à tout instant, de sorte que seules de petites régions de l’espace soient considérées et que toutes les possibilités de position au sein de chacune de ces régions soit sursommée. Enfin, supposez que l’histoire à gros grain sursomme tout ce qui se produit la plupart du temps, pour ne suivre que la position approximative de l’objet sur une séquence discrète d’instants séparés par de cours intervalles de temps. (...) Les histoires (qui spécifient les positions du centre de masse de l’objet dans le Système solaire à certains instants particuliers du temps) décohèrent à cause des interactions répétées de l’objet avec des choses sursommées, comme les photons du rayonnement de fond. (...) Puisque la mécanique quantique est correcte, pourquoi la planète mars n’est-elle pas répandue de manière diffuse sur toute son orbite ? (...) Les photons en Provenance du Soleil que Mars disperse sont également sursommés, contribuant à la décohérence des différentes positions de la planète, et ce sont justement ces photons qui permettent aux humains de voir Mars. (...) des mécanismes de décohérence de ce genre rendent possible l’existence du domaine quasi classique qui inclut notre expérience commune. Ce domaine se compose d’histoires à gros grain décohérentes, que l’on peut envisager comme formant une structure arborescente. (...) la décohérence (donnant naissance à une ramification d’histoires en éventualités distinctes avec des probabilités bien définies) n’est pas l’unique propriété importante du domaine quasi classique qui inclut notre expérience quotidienne. (...) Comment la planète mars peut-elle suivre une orbite déterministe classique alors que les volées aléatoires de photons qu’elle rencontre ne cessent de la souffleter ? La réponse est que plus lourd sera l’objet, moins il manifestera un comportement erratique et plus il suivra son petit bonhomme d’’orbite."

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0