Accueil > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 03 : Revolution : the great organizer - La révolution ou le grand (...) > Qu’est-ce que la théorie de la complexité

Qu’est-ce que la théorie de la complexité

mercredi 18 janvier 2017, par Robert Paris

Qu’est-ce que la théorie de la complexité ?

What is Complexity Theory

Avertissement : si nous débutons les citations sur la complexité par des auteurs favorables à la thèse de la complexité croissante, afin de mieux l’exposer, nous n’y sommes pas pour autant favorables, comme on pourra le lire dans la suite de l’article, pas plus que nous n’approuvons la « théorie de l’information » ni la « théorie des systèmes » dont elle fait partie, alors que nous approuvons cependant certaines parties de ce qu’elle considère comme ses bases théoriques, à savoir l’histoire de la matière, l’auto-organisation, le chaos déterministe, le holisme et l’émergence.

Chez bien des auteurs, la tentation est grande de passer de la notion de matière historique, de chaos déterministe, d’auto-organisation, de néguentropie, d’émergence, à celle de théorie de la « complexité », c’est-à-dire à l’idée que la matière va inéluctablement vers une croissance de la structuration en niveaux et en interactions, fondée sur une organisation de plus en plus développée. Ce n’est pas la même notion que l’on emploie lorsqu’on dit qu’une question est compliquée, difficile à comprendre, car la complexité peut très bien provenir de lois extrêmement simples à comprendre et à formuler. Il suffit que ces structures s’auto-produisent en boucle et fondent des niveaux successifs interactifs. Mais ce que nous récusons dans cet article, c’est le caractère de progrès que la théorie en question attribue à la complexité, le sens de l’Histoire de la matière qu’elle croie déceler.

Il est vrai que l’on observe la capacité spontanée de la matière de se structurer, de fonder différents niveaux d’organisation : du vide quantique (avec ses particules et antiparticules dites virtuelles parce qu’éphémères mais qui sont la véritable réalité fondamentale) aux particules dites « réelles » parce qu’elles sont durables (même si on ne peut pas les suivre continûment sur une trajectoire), des particules aux noyaux atomiques de plus en plus gros (agglomérant neutrons et protons ainsi que les particules d’interaction pour les attacher), des noyaux aux atomes (entourés d’électrons), des atomes aux molécules et aux macromolécules, puis à la vie cellulaire, unicellulaire puis pluricellulaire, intégrant des organismes en son sein, aux organismes vivant de plus en plus complexes, puis à la vie humaine, avec son système nerveux plus développé et son cerveau aux connexions complexes. Il est clair que l’on a le sentiment d’une montée graduelle et continue de la complexité au cours de cette grande histoire de la matière et pourtant ce n’est pas aussi simple…

Nous allons tenter de montrer ici que de cette histoire de la matière, appuyée à juste titre sur la théorie du chaos déterministe, sur la théorie de l’auto-organisation, sur celle de l’émergence, sur la théorie de l’évolution ponctuée, eh bien, elle ne parvient pas à la théorie de la complexité, qui suppose un progrès structurel croissant et graduel et un sens univoque de cette évolution historique. En somme, la matière ne va pas sans cesse vers le « toujours plus complexe », quel que soit le sens que l’on donne à cette notion de « complexité ».

Certes le vide quantique (fondé sur une matière et une antimatière éphémère) produit sans cesse de la matière durable et dite réelle (parce que, contrairmeent à la matière virtuelle éphémère, nous pouvons la détecter avec nos instruments). Mais cela ne signifie pas que le vide quantique laisse place à la matière réelle qui la remplacerait graduellement. Au contraire, le vide quantique emplit la matière à toutes les échelles. Quand l’Univers grandit, ce sont les bulles de vide qui augmentent de taille (expansion de l’Univers) et pas les galaxies, ni les étoiles, ni les atomes, ni les particules. Il y a certes une structuration du vide qui explique la formation de la matière et de ses différents niveaux mais ce n’est pas un processus à sens unique.

Le vide construit la matière mais il la détruit aussi. Il donne sa masse à une particule virtuelle, la rendant réelle, au travers du boson de Higgs, mais, peu après, il lui retire sa masse, la donnant à une autre particule virtuelle proche, et ainsi de suite.

Dans cette première étape de l’histoire de la matière qui fait passer du vide quantique à la matière durable, dite réelle, il n’y a à proprement parler de complexification. Ce sont exactement les mêmes particules qui existent au niveau virtuel qu’au niveau réel. On trouve les électrons virtuels comme les protons ou neutrons virtuels ainsi que toutes les autres particules. Cette première étape de la matière n’est pas une complexification, même si la particule virtuelle est remplacée par un nuage de particules et d’antiparticules virtuelles qui est structuré, qui possède par exemple un spin ou moment de rotation. De même, la lumière qui est fondée sur des couples particule/antiparticules virtuels est aussi une structuration du vide quantique mais pas à proprement parler une complexification.

Et surtout, le passage du virtuel au réel, matériel (on entend ici par matière l’ensemble des particules dites fermions) ou lumineux (on entend ici par lumière l’ensemble des particules dites d’interaction ou bosons) n’est pas à sens unique, c’est-à-dire que l’un ne remplace pas l’autre graduellement, ils coexistent et interagissent. Le vide quantique, loin de disparaître, est la base, indispensable et sans cesse présente, de la matière et de la lumière. Et matière comme lumière retournent toujours au vide quantique. C’est même ce processus de retour au vide quantique qui leur donne leurs propriétés, leur rythme, leur énergie, leur périodicité, leur masse, etc.

L’interaction matière/lumière est également fondée sur les propriétés du vide quantique et inconcevable sans elles. Quand la matière émet de la lumière, c’est-à-dire des photons, elle ne les tire pas de sa propre structure car la particule matérielle ne contient pas de photons. Quand la particule absorbe des photons, elle ne les intègre pas non plus à sa propre structure qui n’en contient pas. Absorption et émission de lumière par la matière ne sont concevables que par des interactions avec le nuage qui entoure la particule réelle, c’est-à-dire par le vide quantique.

On constate effectivement la formation de nouvelles structures puisque la particule n’est pas un individu isolé mais fait partie d’une structuration collective des particules et antiparticules du vide quantique qui s’appelle le nuage de polarisation et entoure la particule mais ces nouvelles structures ne remplacent pas les anciennes. Il y a bien formation de structures mais la matière durable n’est pas plus complexe que la matière virtuelle. On constate par exemple que le vide quantique contient lui-même des niveaux de structures comme le niveau sous-jacent dit « virtuel de virtuel ». Et ce niveau est indispensable et permanent et coexiste avec le niveau virtuel. Là aussi, les structures ne se succèdent pas, ne se remplacent pas mutuellement au cours de leur histoire.

Avec la matière dite réelle, plus durable, on n’a pas vu apparaître de nouveaux objets qui succèderaient aux précédents, mais seulement des modes d’organisation nouveaux. Tous les niveaux de la matière que nous allons successivement évoquer ne sont rien d’autre que des structurations du vide quantique et n’existeraient pas sans les propriétés du vide quantique, du plus petit niveau de la particule au plus grand niveau de l’étoile, de la galaxie, de l’amas de galaxie et de l’amas d’amas… Tous n’ont pas d’autre fondement que le vide structuré et les « objets » que l’on croit toucher, palper, travailler à notre échelle ne sont que… du vide structuré !!!

Il y a d’abord la formation des noyaux, puis des atomes, puis des molécules puis des matériaux macroscopiques et, au cours de ces passages d’un niveau à un autre, les niveaux précédents ne disparaissent jamais et sont sans cesse présents. Il faut comprendre les particules, les noyaux, les atomes et les molécules pour comprendre y compris les étoiles et les galaxies ! Le vide est indispensable à la compréhension de la formation de la matière, aux limites entre les bulles de vide et jusqu’à l’expansion de l’Univers qui est une extension des bulles de vide…

On a ainsi la formation de l’atome d’hydrogène, le premier historiquement puisqu’il agglomère simplement et durablement un proton et un électron. Là encore il s’agit davantage d’une structure que d’un objet au sens que nous donnons à ce terme à notre échelle. Cela signifie que les particules qui composent les atomes ne sont pas toujours les mêmes et que, comme la très vieille barque du pêcheur, on a pu changer une à une toutes ses planches à condition de conserver la structure d’ensemble et les propriétés de la barque comme l’étanchéité, la rapidité, la forme, etc. Les particules qui composent l’atome conservent elles aussi leurs propriétés, leurs caractéristiques propres, ce qui ne signifient pas que ce sont les mêmes qui se poursuivent continûment. On ne peut pas suivre même une seule particule réelle de manière continue puisque le vide quantique ne cesse de la faire apparaître et disparaître !!!

Peut-on dire que l’atome d’hydrogène soit plus complexe que le proton et l’électron qu’elle organise par des liaisons fondées sur des interactions ? Tout d’abord l’atome n’invente pas ces interactions qui existent déjà au sein du vide. Ensuite, la liaison proton/électron est sans cesse cassée et reconstruite et non pas permanente, même si l’ensemble atomique, en tant que structure, est durable : a des propriétés et des caractéristiques fixes, un comportement déterminé qui semble continuel. On ne peut pas parler de progrès de la particule à l’atome mais seulement de structure émergente et d’auto-organisation. L’atome ne crée rien de plus qui n’existe pas déjà au sein du vide, il permet des propriétés nouvelles, émergentes, mais elles proviennent des particules et antiparticules du vide quantique.

Est-ce que l’on a augmenté quelque chose qui pourrait s’appeler « la complexité » en passant des particules aux noyaux, des noyaux aux atomes de plus en plus gros, intégrant un plus grand nombre de neutrons et de protons ? On peut dire qu’on a plusieurs niveaux de structures qui s’ajoutent et qui interagissent mais on ne peut pas parler de progrès, de sens de l’évolution, car cette action n’est pas à sens unique, vers l’ordre, vers le structuré. On ne peut augmenter l’ordre qu’en augmentant le désordre qui l’entoure, c’est-à-dire les agitations et les communications d’énergie du vide que nécessitent la formation des structures de la matière. L’entourage d’une particule ou d’un atome est un vide extraordinairement agité avec sans cesse des couples particule/antiparticule qui se rompent pour céder une particule virtuelle qui va devenir réelle. On ne peut gagner localement en ordre qu’en augmentant le désordre alentour. On ne peut gagner en durabilité que grâce à l’aide des éphémères que sont les particules virtuelles du vide quantique.

S’il y a des mécanismes spontanés dans le monde matériel qui vont vers la structuration spontanée, ou auto-organisation, cela ne signifie pas que l’ordre de l’univers augmente mais seulement qu’il augmente localement et augmente aussi le désordre du reste de l’Univers.

Cela est vrai à toutes les échelles. La formation des étoiles et des galaxies et amas de galaxies est compensée par l’accroissement de la taille des immenses bulles de vide.

Le mécanisme de la construction de structures n’existe que parce qu’existe aussi celui de leur destructuration. Construction et destruction font partie d’un même mécanisme d’ensemble, sont des contraires dialectiques et non des contraires diamétraux. Aucun mécanisme de passage d’une particule virtuelle à une particule virtuelle sans un mécanisme inverse, par exemple. De même, la structuration des étoiles qui suppose la concentration gravitationnelle de grandes masses de gaz et de poussières n’est possible que grâce au rayonnement qui distribue dans l’espace des quantités d’énergie, c’est-à-dire augmentent l’agitation de l’espace qui entoure ces étoiles. Ordre et désordre sont imbriqués et ce sont ces interactions contradictoires ordre/désordre qui fondent des structures nouvelles et pas une tendance unique vers l’ordre qui s’intitulerait « complexité » ou autre chose.

L’étoile, elle-même, n’est pas en soi plus « complexe » que les immenses de poussières et de gaz qui l’ont formé par concentration. Au sein des étoiles, les températures et pressions très élevées entretiennent des explosions nucléaires, permettant de fonder, par fusion des noyaux atomiques, de nouveaux noyaux plus « lourds », comprenant plus de protons et de neutrons, et ces noyaux vont ensuite ensemencer l’univers, permettant de fonder l’ensemble des atomes puis des molécules et des éléments chimiques. On passe dans les étoiles de l’hydrogène à l’hélium, et ainsi de suite jusqu’au noyau de fer. Ce qui caractérise les noyaux atomiques formés par les explosions nucléaires au sein du cœur des étoiles, ce n’est pas la tendance à la complexité mais la tendance vers la stabilité. Le fer est le plus stable des noyaux atomiques. Cela explique qu’une fois parvenue à la formation du fer au sein du cœur de l’étoile, celle-ci entre dans une nouvelle phase de sa « vie » d’étoile, allant soit vers sa mort soit vers son explosion en supernovae, explosion qui dégagera une quantité d’énergie (de désordre) suffisante pour permettre la formation des noyaux plus gros et plus lourds que le fer.

C’est la minimisation de l’énergie interne, et non une complexification, qui guide toute cette évolution des noyaux atomiques.

Chaque noyau contenant un nombre déterminé de neutrons et de protons, même si l’agitation dynamique interne impose que les protons deviennent des neutrons et réciproquement, et même si les protons et les neutrons doivent sans cesse sauter d’un état à un autre, doivent aussi sans cesse interagir, échanger des énergies et des particules d’interactions, le nombre de protons (chargés électriquement de manière positive) va imposer le nombre d’électrons (chargés négativement) qui va pouvoir se structurer au sein du vide quantique entourant le noyau et cette structuration va fonder l’atome. Les électrons apparaissent et disparaissant au sein de zones particulières appelées par la physique quantique des « zones de probabilité de présence ». Cela ne signifie nullement que ce sont toujours les mêmes particules « électron » qui sont présentes autour du noyau ni qu’elles se déplaceraient continûment comme le feraient des objets, tels qu’on les conçoit à notre échelle, macroscopique.

La galaxie n’est pas non plus un ordre plus complexe que les niveaux précédents. Ainsi, les étoiles qui participent des structures « galaxie » ne sont pas différentes de nature des autres étoiles qui appartiennent seulement à des amas globulaires ou qui gravitent isolément ou en couple.

Si la matière et l’Univers, dont nous examinons les premières étapes historiques, avaient présenté une « tendance vers la complexité », cela supposerait que les phases « moins complexes » cèdent la place aux phases « plus complexes », ce qui n’est nullement le cas. On verra, en ce qui concerne le vivant, qu’il en sera de même : un niveau supplémentaire ne signifie pas la disparition des niveaux dits inférieurs.

Pas plus que le vide ne disparaît par la formation de la matière/lumière durable, les quanta et les charges du vide se retrouvant à l’identique dans la matière et la lumière, les particules ne disparaissent pas à la formation des atomes, ni les atomes à la formation des molécules ou des macromolécules du vivant, les espèces anciennes ne disparaissent pas à la formation des nouvelles espèces vivantes, etc.

De même, pas plus que n’apparaît une complexité nouvelle, ce n’est pas non plus une forme qui se constitue aux dépens du fond, c’est-à-dire de la matérialité du monde, ce n’est pas une nouvelle théorie de l’information qui remplacerait la théorie de la matière, comme la théorie de la complexité le laisse souvent entendre.

L’évolution des espèces vivantes n’est pas davantage une prime à la complexité. Les espèces qui disparaissent ne sont ni plus complexes ni moins complexes que celles qui de conservent. Les anciennes espèces disparues ne sont pas moins complexes que les espèces qui sont toujours là. Les plantes, les animaux, les champignons ne sont pas moins complexes les uns que les autres. L’évolution n’est pas la lutte pour la complexité.

La génétique peut informer sur l’existence d’un nombre plus ou moins grand de gènes dans l’ADN mais cela n’indique pas une complexité plus ou moins grande de l’être vivant car l’essentiel est ailleurs, dans l’organisation des interactions de ces gènes entre eux et même l’organisation des interactions ne dit pas tout car une grande part est épigénétique. La dialectique du hasard et de la nécessité n’est pas résumée par « vers le plus complexe » et ce n’est même pas une loi de l’évolution car l’espèce descendante n’est pas plus complexe que celle qui lui a donné naissance. On ne peut pas établir d’échelle de complexité entre des singes ou entre des arbres et des animaux, ni entre deux espèces, deux genres, deux individus. La notion d’information génétique n’est pas suffisante pour comparer des espèces vivantes ou pour comprendre les mécanismes de l’évolution ou du développement.

La fameuse tendance à la complexité ne peut pas davantage être retenue pour la matière dite inerte. Un noyau plus lourd ne peut être considéré comme plus complexe qu’un noyau léger et il n’existe pas seulement une tendance à former des noyaux lourds (fusion), il y a aussi une tendance à scissionner des noyaux lourds en plusieurs noyaux légers (fission).

La matière vivante n’est même pas plus complexe que la matière dite inerte. La taille des molécules n’est pas le seul critère de la vie. Il y a des macromolécules aussi bien dans le vivant que dans le non vivant. Cela dépend par exemple du sens de rotation des molécules.

Dans l’apparition de la vie, puis dans le passage de l’unicellulaire au pluricellulaire, dans la spécialisation des organismes, pouvons-nous parler de complexification ? Ce serait établir une échelle depuis des êtres inférieurs aux êtres supérieurs, ce qui est opposé à la notion darwinienne de l’évolution.

Si on veut dire que les unicellulaires seraient des êtres plus simples, en tout cas, on ne peut absolument pas dire alors qu’il y a une tendance vers le complexe puisque les êtres unicellulaires n’ont absolument pas disparu, éliminés par les pluricellulaires.

Même le cerveau humain n’est pas plus complexe que celui d’un singe. Même s’il l’était, cela n’établirait pas une tendance à la complexité parce que nous NE sommes pas un aboutissement des singes et nous ne les avons pas remplacés, même si nous avons tendance parfois à les éliminer, en supprimant les forêts, ce n’est pas un produit de notre supériorité !!! En tout cas, on ne peut pas dire que toutes les espèces récentes développent des cerveaux nécessairement plus complexes que les espèces précédentes et ce n’est donc nullement une tendance générale.

Nous ne reconnaissons donc aucune loi de la tendance à aller vers le plus complexe, même si nous acceptons parfaitement que la matière a une histoire, qu’au cours de cette histoire, la matière développe des capacités spontanées à créer des formes d’organisation, des structures nouvelles, et des structurations nouvelles aussi de leurs interactions, que des révolutions changent même radicalement les modes d’organisation, que les sauts d’organisation peuvent être des sauts qualitatifs avec de nouveaux paramètres, avec des niveaux supplémentaires d’organisation, ce n’est cependant pas des processus à sens unique et il existe conjointement le processus inverse et nous ne pouvons nullement établir un critère comme « la complexité » comme une propriété qui guiderait l’évolution historique dans un sens toujours identique.

TEXTES EN FAVEUR DE LA THEORIE DE LA COMPLEXITE :

« A la recherche du complexe », Grégoire Nicolis et Ilya Prigogine :

« Une cellule de Bénard simple comporte quelques 1021 molécules. Qu’un nombre aussi énorme de particules puisse adopter un déplacement cohérent en dépit du mouvement thermique aléatoire de chacune d’elles est la manifestation d’une des propriétés essentielles qui caractérise l’émergence du mouvement complexe (...) Cette complexité « organisée » émerge par le jeu réciproque du mouvement thermique désordonné des molécules individuelles et de l’action des contraintes du non-équilibre. (...) La possibilité de décrire à travers ces concepts primordiaux à la fois le comportement des êtres vivants et celui des systèmes physiques, aussi simples soient-ils, marque une avancée essentielle que la Science n’aurait jamais pu prévoir quelques années auparavant. »

Les systèmes complexes sont définis, selon les cas et selon les auteurs, par leur structure, par l’existence d’interactions non-linéaires, par l’émergence de niveaux d’organisation différents, ou par leurs comportements collectifs non triviaux (multistationnarité, chaos, bifurcations, auto-organisation, émergence, boucles de rétroaction). Certains, partant du grand nombre d’entités, insistent sur la structure, l’hétérogénéité et la présence de niveaux d’organisation, aux propriétés émergentes. D’autres insistent au contraire sur la non-linéarité et la dynamique. Cette multiplicité des définitions a des causes objectives liées à l’hétérogénéité des objets regroupés sous le terme de systèmes complexes, qui vont de système naturels, (des molécules aux sociétés humaines), jusqu’aux systèmes artificiels comme le web. Cela correspond obligatoirement à une multiplicité de points de vue, qui se recoupent tous partiellement, bien sûr, mais où l’accent n’est pas mis sur les mêmes propriétés. Ces différences sont aussi liées à des critères idéologiques ou philosophiques, particulièrement importants dans ces domaines.

Un système est un ensemble cohérent de composants en interaction.

Un système complexe est un système composé d’un grand nombre d’entités en interaction locale et simultanée. On exige le plus souvent que le système présente de plus les caractéristiques suivantes (ce qui montre qu’il n’existe pas de définition formelle largement acceptée de ce qu’est un système complexe) :

• le graphe d’interaction est non trivial : ce n’est pas simplement tout le monde qui interagit avec tout le monde (il y a au moins des liens privilégiés) ;
• les interactions sont locales, de même que la plupart des informations, il y a peu d’organisation centrale ;

• il y a des boucles de rétroaction (en anglais feedback) : l’état d’une entité a une influence sur son état futur via l’état d’autres entités.

On constate le plus souvent que le système complexe présente la majorité des caractéristiques suivantes :

• Les interactions des composants entre eux forment des « groupes » de composants fortement liés, chaque « groupe » étant en interaction avec les autres, ce qui permet de modéliser le système complexe par niveaux : chaque composant interagit « localement » avec un nombre limité de composants.

• Les boucles de rétro-action, aussi appelées interactions réflexives, (c’est-à-dire le fait qu’un composant interagisse avec lui-même, soit directement, soit indirectement à travers la chaîne d’interactions avec les autres composants) sont une des raisons de la non-linéarité du comportement du système : « emballement », « relaxation » ou « oscillation autour du point fixe » dans le cas « simple » de l’interaction réflexive d’un composant ; comportement difficilement prédictible dans les cas réels d’interactions entre de nombreuses entités.

• Les composants peuvent être eux-mêmes des systèmes complexes (« niveaux ») : une société peut être vue comme un système composé d’individus en interaction, chaque individu peut être vu comme un système composé d’organes en interaction, chaque organe…

• Le système agit sur son environnement ; on dit que le système est ouvert ; dans le système « entrent » de la matière, de l’énergie ou des informations, du système « sortent » de la matière, de l’énergie ou des informations.

Une réaction chimique, comme la dissolution d’un grain de sucre dans du café, est simple car on connaît à l’avance le résultat : quelques équations permettent non seulement de décrire les processus d’évolution, mais les états futurs ou final du système. En réalité, il n’est pas nécessaire d’assister au phénomène concret ou de réaliser une expérience pour savoir ce qui va se produire et ce qui va en résulter. Au contraire, les cellules nerveuses de notre cerveau, une colonie de fourmis ou les agents qui peuplent un marché économique sont autant de systèmes complexes car le seul moyen de connaître l’évolution du système est de faire l’expérience, éventuellement sur un modèle réduit.

En d’autres termes, lorsque l’on veut modéliser un système, on conçoit un certain nombre de règles d’évolution, puis l’on simule le système en itérant ces règles jusqu’à obtenir un résultat structuré. Un système est dit complexe si le résultat final n’est pas prédictible directement en connaissant les règles qui disent comment le système change.

Du fait de la diversité des systèmes complexes, leur étude est interdisciplinaire. Deux approches complémentaires sont utilisées : certaines disciplines étudient les systèmes complexes dans un domaine particulier, d’autres cherchent des méthodes, schémas et principes généraux applicables à de nombreux types de systèmes différents.

Les systèmes complexes sont un contre-exemple au réductionnisme, à la réduction analytique : malgré une connaissance parfaite des composants élémentaires d’un système, voire de leurs interactions, il n’est pas possible même en théorie de prévoir son comportement autrement que par l’expérience ou la simulation. Cet écueil ne vient pas nécessairement de nos limites de calcul, il est au contraire lié à la nature même des systèmes complexes.

Cela se traduit au niveau mathématique par l’impossibilité de modéliser le système par des équations prédictives solvables. Ce qui est primordial est non pas tant le nombre de facteurs ou dimensions (paramètres, variables), mais le fait que chacun d’entre eux influence indirectement les autres, qui eux-mêmes l’influencent en retour, faisant du comportement du système une globalité irréductible. Pour prévoir ce comportement, il est nécessaire de tous les prendre en compte, ce qui revient à effectuer une simulation du système étudié.

Étymologiquement, compliqué (du latin cum plicare, plier ensemble) signifie qu’il faut du temps et du talent pour comprendre l’objet d’étude, complexe (du latin cum plexus, tissé ensemble) signifie qu’il y a beaucoup d’intrications, que « tout est lié » ; que l’on ne peut étudier une petite partie du système de façon isolée et encore moins inférer l’ensemble à partir des composants. Les systèmes complexes sont généralement compliqués, mais le contraire n’est pas vrai i.e. que les systèmes compliqués ne sont pas généralement complexes

« Le quark et le jaguar », Murray Gell-Mann :

« Qu’entend-on réellement par les termes opposés de simplicité et de complexité ? En quel sens la gravitation einsteinienne est-elle simple alors qu’un poisson rouge est complexe ? Ce ne sont pas là des questions faciles – définir « simple » n’est pas simple. Il est probable qu’aucun concept unique de complexité puisse à lui seul saisir les notions intuitives de ce que devrait signifier le mot. (…) Quels sont les cas où se pose la question d’une définition de la complexité ? Il y a le souci de l’informaticien quant au temps que demande un ordinateur pour résoudre un type donné de problème. Afin d’éviter que ce temps demeure sous la dépendance de l’ingéniosité du programmeur, les scientifiques se concentrent sur le temps de résolution le plus court possible, ce que l’on désigne souvent sous le nom de « complexité calculatoire » du problème. Cependant, ce temps minimal dépend encore du choix de l’ordinateur. Et cette « dépendance du contexte » est un obstacle permanent aux efforts pour définir les différentes sortes de complexité. Mais l’informaticien s’intéresse particulièrement à ce qui se passe dans un ensemble de problèmes qui ne diffèrent que par la taille ; en outre, sa préoccupation première est ce qui arrive à la complexité calculatoire lorsque la taille du problème ne cesse de croître, sans limite. Comment le temps de solution minimal peut-il dépendre de la taille quand celle-ci tend vers l’infini ? La réponse à ce genre de question peut être indépendante des détails de l’ordinateur. La notion de complexité calculatoire a fait la preuve de son utilité, mais elle ne correspond pas étroitement à ce que nous entendons habituellement lorsque nous employons le mot complexe, dans des expressions comme « l’intrigue hautement complexe d’un récit » ou « la structure complexe d’une organisation ». Dans ces contextes, nous serions plus intéressés par la longueur du message qu’exigerait la description de certaines propriétés du système en question que par le temps que mettrait un ordinateur pour résoudre un problème donné. (…) Mais jusqu’à quel niveau de détail faut-il compter ? (…) Lorsque l’on définit la complexité, il est toujours nécessaire de spécifier un niveau de détail où l’on s’arrête dans la description du système, ignorant les détails les plus fins. Les physiciens appellent cela l’ « agraindissement ». L’image qui a inspiré cette expression est probablement celle du grain en photographie. Lorsque le détail d’une photographie est si petit qu’il nécessite un très fort agrandissement pour être identifié, l’agrandissement peut faire apparaître les grains individuels qui composent la photographie. Au lieu d’une image claire du détail, on ne verra que quelques points n’en donnant qu’une représentation grossière. (…) Une fois établie l’importance de l’agraindissement, nous restons confrontés à la question de savoir comment définir la complexité du système à l’étude. (…) Au moins une manière de définir la complexité d’un système revient à utiliser la longueur de sa description. (…) Si l’on définit la complexité en termes de longueur de description, ce n’est pas alors une propriété intrinsèque de la chose décrite. La longueur d’une description peut à l’évidence dépendre de qui (ou de ce qui) fait la description. (…) La longueur de la description variera en fonction du langage utilisé, et également de la connaissance et de la compréhension du monde que partagent les correspondants. (…) Et si la description est inutilement longue du seul fait d’un gaspillage de mots ? (…) Dans notre définition de la complexité, nous allons par conséquen nous intéresser à la longueur du plus court message possible décrivant un système. Tous ces points peuvent être inclus dans ce que l’on pourrait appeler « complexité brute » : la longueur du plus court message possible décrivant un système, à un niveau donné d’agraindissement, à quelqu’un d’éloigné, au moyen d’un langage, d’une connaissance et d’une compréhension que les deux parties partagent (et qu’elles savent partager) au préalable. Il y a des manières familières de décrire un système qui ne sont en rien le plus court message possible. Si nous décrivons par exemple séparément les parties d’un système et que nous disons également comment le tout est composé de parties, nous aurons ignoré de nombreuses occasions de compresser le message ; comme d’utiliser les similitudes entre parties. Ainsi, la plupart des cellules d’un corps humain partagent les mêmes gènes et peuvent avoir bien d’autres traits en commun, tandis que les cellules d’un tissu donné peuvent présenter davantage de similitudes encore. C’est là quelque chose dont la plus courte description devrait tenir compte. Certains spécialistes de la théorie de l’information utilisent une quantité qui ressemble beaucoup à la complexité brute, même si leur définition est plus technique et fait évidemment intervenir les ordinateurs. Ils envisagent une description à un niveau donné d’agraindissement, exprimée dans un langage donné, qu’ils encodent ensuite au moyen d’une procédure standard de codage en une chaîne de 1 et de 0. Tout choix d’un 1 ou d’un 0 s’appelle un « bit ». (…) C’est une chaîne de bits ou chaîne-message qui les intéresse. La quantité qu’ils définissent se nomme « complexité algorithmique » ou « aléatoire algorithmique ». Ce mot d’ « algorithme » désigne aujourd’hui une règle, et par extension un programme, pour calculer quelque chose. Le contenu d’information algorithmique renvoie, comme nous allons le voir, à la longueur d’un programme informatique. (…) Le contenu d’information algorithmique (CIA) a été introduit dans les années 1960 par trois auteurs travaillant indépendamment : le grand mathématicien russe Andrei N. Kolmogorov, un Américain, Gregory Chaitin, âgé de quinze ans seulement à l’époque, et un autre Américain, Ray Solomonoff. Tous trois présupposent un ordinateur universel idéal, considéré essentiellement comme ayant une capacité de stockage infinie (ou bien finie, mais susceptible d’acquérir autant de capacité supplémentaire que nécessaire). L’ordinateur est équipé d’un matériel et d’un logiciel précis. On considère ensuite une chaîne-message particulière, et l’on demande alors quels programmes auront pour effet que l’ordinateur imprime ce message pour cesser de calculer aussitôt après. La longueur du plus court de ces programmes est la CIA de la chaîne. Nous avons vu que la subjectivité ou l’arbitraire sont inhérents à la définition de la complexité brute, ayant comme source l’agraindissement et le langage utilisés pour décrire le système. Dans le cas du CIA, de nouvelles sources d’arbitraire ont été introduites, à savoir la procédure particulière de codage qui transforme la description du système en une chaîne de bits, ainsi que le matériel et le logiciel associés à l’ordinateur. »

Henri Atlan dans « La fin du tout-génétique » :

« Apparaissent des processus d’auto-organisation de la matière (...) que Prigogine et Nicolis adaptaient à la thermodynamique en les rebaptisant ’’ordre par fluctuations’’. ( ..) Les erreurs aboutissent à une protéine dont la structure n’est pas une reproduction à l’identique de l’ADN (...) source de l’augmentation progressive de la diversité et de la complexité des êtres vivants. (...) La création par le bruit de complexité fonctionnelle – c’est-à-dire signifiante – fonctionne à la façon d’une double négation. (...) L’effet du bruit est une dimension de l’information portée par la protéine, par rapport à ce qu’elle aurait été si la transmission avait été exacte, c’est-à-dire si la protéine correspondait rigoureusement à l’ADN. (...) Les gènes du développement, gènes dont les mutations produisent des catastrophes globales au niveau du développement embryonnaire. (...) Il existe des exemples non biologiques d’organisation par le bruit. Ils sont fournis par des systèmes physiques qui sont décrits par des systèmes dynamiques (...) comportant plusieurs minima locaux. Un tel système peut, à un moment, se « coincer » dans un de ces minima ; mais s’il existe une quantité optimum de bruit, en l’occurrence de température, cette agitation empêche le système de rester durablement dans cet état, elle lui permet d’en sortir et d’aller vers un autre minimum. (...) Ce modèle est utilisé par des physiciens. »

Ilya Prigogine et Isabelle Stengers dans « La nouvelle alliance » :

« La thermodynamique des processus irréversibles a découvert que les flux qui traversent certains systèmes physico-chimiques et les éloignent de l’équilibre, peuvent nourrir des phénomènes d’auto-organisation spontanée, des ruptures de symétrie, des évolutions vers une complexité et une diversité croissantes. »

Ilya Prigogine dans « Temps à devenir » :

« Donc, loin d’être simplement un effet du hasard, les phénomènes de non-équilibre sont notre accès vers la complexité. Et des concepts comme l’auto-organisation loin de l’équilibre, ou de structure dissipative, sont aujourd’hui des lieux communs qui sont appliqués dans des domaines nombreux, non seulement de la physique, mais de la sociologie, de l’économie, et jusqu’à l’anthropologie et la linguistique. »

Edgar Morin, « Le paradigme perdu » :

« Plus un système vivant est autonome, plus il est dépendant à l’égard de l’écosystème ; en effet, l’autonomie suppose la complexité, laquelle suppose une très grande richesse de relations de toutes sortes avec l’environnement, c’est-à-dire dépend d’interrelations, lesquelles constituent très exactement les dépendances qui sont les conditions de la relative indépendance…. la fleur de l’hypercomplexité, c’est-à-dire la conscience. »

Joël de Rosnay, « Le carrefour du futur » :

« Les sciences de la complexité débouchent sur une nouvelle vision des processus d’auto-organisation. Mais la théorie du chaos qui se consacre à de tels processus évoque, par son appellation, son contraire. La génération d’ordre à partir du désordre ne permet pas de se représenter de manière claire et synthétique la généralité des phénomènes considérés.
De nombreux auteurs ont cherché à faire la synthèse des grands courants de pensée sur l’évolution, l’organisation et la complexité croissante. Certains avaient noté la différence profonde entre les deux grandes dérives de la matière vers la vie et l’entropie. D’autres, comme Teilhard de Chardin, ont cherché à expliquer par une loi de "complexité / conscience" l’émergence de la vie, de la pensée et de la conscience réfléchie. D’autres encore comme Francesco Varela, Jean Piaget, Edgard Morin, ont mis en avant les conditions d’autonomie d’un système complexe au cours de son évolution créatrice. Je voudrais tenter d’enrichir ces approches en leur intégrant l’apport de la théorie du chaos et des sciences de la complexité. Ces différents domaines pourraient être rassemblés dans le cadre d’une théorie unifiée. Elle se fonderait notamment sur l’étude des organisations complexes et la simulation informatique de leur comportement dans le temps. Je propose de l’appeler : théorie unifiée de l’auto-organisation et de la dynamique des systèmes complexes. Mais cette dénomination, qui en résume pourtant l’essentiel, est longue et d’un emploi délicat. De manière plus concise, je propose le terme de symbionomie pour décrire l’ensemble des phénomènes couverts par cette théorie unifiée. Je définis la symbionomie comme l’étude de l’émergence des systèmes complexes par auto-organisation, autosélection, coévolution et symbiose. Je parlerai ainsi, dans la suite de ce livre, de processus ou d’évolution symbionomique pour décrire les phénomènes liés à l’émergence de la complexité organisée, comme ceux que l’on peut observer dans des systèmes moléculaires (dans le cadre, par exemple, de l’origine de la vie), les sociétés d’insectes (fourmilières, ruches), les systèmes sociétaux (entreprises, marchés, économies) ou les écosystèmes. Une des voies privilégiées de l’évolution symbionomique est la symbiose. Cette notion s’applique généralement à des organismes vivants, mais plusieurs auteurs l’on étendue à des associations entre l’homme et des systèmes non vivants. Sans entrer dans la discussion sur l’existence ou l’absence de frontière entre le "naturel" et "l’artificiel" (j’en traiterai dans les chapitres suivants), et par simple commodité de langage, je considère indistinctement des symbioses se réalisant dans le monde "naturel", avant l’intervention de l’homme et des symbioses intervenant depuis son apparition, dans le monde dit "artificiel", celui des machines, des organisations, des réseaux ou des villes. Je continuerai donc à employer le terme de symbiose pour qualifier aussi bien les liens entre l’homme et ses artefacts (avec les ordinateurs, par exemple) qu’entre l’homme et l’écosystème. »

Edgar Morin, « Éduquer pour l’ère planétaire » :

« On dit de plus en plus souvent « c’est complexe » pour éviter d’expliquer. Ici il faut faire un véritable renversement et montrer que la complexité est un défi que l’esprit doit et peut relever. »

Théorie de l’auto-organisation critique - Damienne Provitolo :

« La théorie de l’auto-organisation critique est une théorie de la complexité qui permet d’étudier les changements brutaux du comportement d’un système. Cette théorie enseigne que certains systèmes, composés d’un nombre important d’éléments en interaction dynamique, évoluent vers un état critique, sans intervention extérieure et sans paramètre de contrôle. L’amplification d’une petite fluctuation interne peut mener à un état critique et provoquer une réaction en chaîne menant à une catastrophe (au sens de changement de comportement d’un système). Cette théorie est basée sur deux concepts clefs : l’auto organisation et la criticalité. Le terme d’auto organisation désigne la capacité des éléments d’un système à produire et maintenir une structure à l’échelle du système sans que cette structure apparaisse au niveau des composantes (J.L. Deneubourg, 2002) et sans qu’elle résulte de l’intervention d’un agent extérieur. Le préfixe auto modifie le sens couramment accordé au terme d’organisation. L’auto organisation est un processus d’organisation émergent (R-A. Thietart, 2000). Mais elle se différencie de l’organisation en ce sens où l’organisation émergeante ne provient pas de forces extérieures (même si le système reste ouvert sur son environnement) mais de l’interaction de ses éléments. Si on applique ce concept à l’étude des sociétés, cela signifie qu’en plus du principe régulateur, il n’y a ni leader, ni centre organisateur, ni programmation au niveau individuel d’un projet global. Ces phénomènes d’auto organisation s’observent par exemple aussi bien dans les sociétés animales (organisation de fourmilière, de vols d’oiseaux) que dans les sociétés humaines (applaudissement, panique collective, intention de vote) ou les systèmes géographiques (les réseaux urbains). Dans les groupes humains par exemple, et plus particulièrement dans le cas de l’émergence de la propagation de rumeur ou de panique dans les foules (D. Provitolo, 2007), l’auto organisation n’est pas le fruit d’une intention prédéterminée. Des agents ou des entités en interaction, sans but commun préalablement défini, vont créer, sans le savoir et par imitation, une forme particulière d’organisation. Ce qui caractérise donc les systèmes auto organisés c’est l’émergence et le maintien d’un ordre global sans qu’il y ait un chef d’orchestre. Cette auto organisation signifie que l’on ne peut observer les mêmes propriétés aux niveaux micro et macroscopiques. Quant à la criticalité, elle caractérise les systèmes qui changent de phase, par exemple le passage de l’eau à la glace, de la panique individuelle à la panique collective. En fait, le système devient critique quand tous les éléments s’influencent mutuellement. Lorsque cet état critique est atteint, le système peut bifurquer, c’est-à-dire qu’il change brutalement de comportement pour passer d’un attracteur à un autre. Cet état critique est un attracteur du système dynamique atteint à partir de conditions initiales différentes. Cet état critique est dit auto organisé car l’état du système résulte des interactions dynamiques entres ses composantes et non d’une perturbation externe. L’auto-organisation est donc un processus qui passe par des états critiques. La notion de criticalité auto-organisée a été proposée par Per Bak, Chao Tang et Kurt Wiesenfeld en 1987. Dans son livre intitulé How Nature Works - The science of self-organized criticality, Per Bak applique cette théorie à de nombreux phénomènes complexes, notamment à l’évolution phylogénique des espèces vivantes, aux mécanismes déclenchant des tremblements de terre, des avalanches, des embouteillages et, pour prendre un dernier exemple, aux krachs boursiers. Pour illustrer cette théorie, P. Bak et al. utilisent un modèle simple : le tas de sable. L’expérience consiste à ajouter régulièrement des grains à un tas de sable. Petit à petit le sable forme un tas dont la pente, en augmentant lentement, amène le tas de sable vers un état critique. L’ajout d’un grain peut alors provoquer une avalanche de toute taille, ce qui signifie qu’une petite perturbation interne n’implique pas forcément de petits effets. Dans un système non linéaire, une petite cause peut en effet avoir une grande portée. Les avalanches connaissent donc différentes amplitudes qui sont toutes générées par une même perturbation initiale (un grain de sable supplémentaire). S’il n’est pas possible de prédire la taille et le moment de l’avalanche, en revanche cette théorie nous renseigne sur l’ensemble des réponses du système lorsqu’il atteint l’état critique. L’état critique auto organisé d’un système est donc un état ou le système est globalement métastable tout en étant localement instable. Cette instabilité locale (de petites avalanches dans le modèle du tas de sable) peut générer une instabilité globale (de grosses avalanches entraînant l’effondrement du tas) qui ramène ensuite le système vers un nouvel état métastable : le tas de sable connaît une nouvelle base. »

« Auto-organisation et émergence dans les sciences de la vie », Bernard Feltz, Marc Crommelinck et Philippe Goujon :

« Le concept d’émergence renvoie à l’apparition de propriétés nouvelles liées à la complexité d’une organisation. L’ordre à partir du chaos mis en évidence par les modèles auto-organisationnels est souvent interprété en termes d’émergence, de surgissement d’un niveau d’organisation supérieur. »

Per Bak, « Quand la nature s’organise » :

« La « criticalité auto-organisée » est un regard nouveau porté sur la nature. Celle-ci est en permanence hors d’équilibre, mais organisée dans un état suspendu – l’état critique – où tout peut arriver selon des lois statistiques bien définies. Le but de la science de la criticalité auto-organisée est d’éclairer la question fondamentale suivante : pourquoi la nature est-elle complexe et non simple, comme les lois de la physique pourraient le laisser supposer ? Comment l’univers a-t-il pu commencer avec un si faible nombre de types de particules élémentaires à l’époque du big bang et déboucher sur la vie, l’histoire, l’économie et la littérature ? La thèse présentée est que l’existence de ces comportements complexes dans la nature reflète la tendance des grands systèmes comportant un grand nombre de composants à évoluer vers un état intermédiaire « critique », loin de l’équilibre, et pour lequel des perturbations mineures peuvent déclencher des événements de toutes tailles, appelés « avalanches ». En fait, la plupart des changements se produisent au cours de ces événements catastrophiques plutôt qu’en suivant un chemin graduel et régulier. Cet état extrêmement délicat évolue sans intervention d’agent extérieur et n’est déterminé que par les interactions dynamiques entre les constituants du système : on dit alors que l’état critique est « auto-organisé ». »

Ilya Prigogine dans « Temps à devenir » :

« Le non-équilibre, c’est la voie la plus extraordinaire que la nature ait inventée pour coordonner les phénomènes, pour rendre possibles des phénomènes complexes. »

« La Fin des Certitudes », Ilya Prigogine :

« La supériorité des systèmes auto-organisateurs est illustrée par les systèmes biologiques où des produits complexes sont formés avec une précision, une efficacité, une vitesse sans égale. »

Extraits choisis du livre : La complexité, vertiges et promesses – entretiens avec E.Morin, I.Prigogine, F.Varela, …par Réda Benkirane

CONTRE LA THEORIE DE LA COMPLEXITE

« La vie est belle » (1989), Stephen Jay Gould :

« L’histoire de la vie ressemble à un gigantesque élagage ne laissant survivre qu’un petit nombre de lignées, lesquelles peuvent ensuite subir une différenciation ; mais elle ne ressemble pas à cette montée régulière de l’existence, de la complexité et de la diversité, comme on le raconte traditionnellement… Pour les spécialistes, l’évolution est une adaptation aux conditions changeantes de l’environnement et non pas un progrès… L’évolution de la vie à la surface de la planète est conforme au modèle du buisson touffu doté d’innombrables branches et continuellement élagué par le sinistre sécateur de l’extinction. Elle ne peut du tout être représentée par l’échelle d’une inévitable progrès. »

Entretiens de Stephen Jay Gould avec Jean-Claude Oliva - 1er octobre 1997 :

« Certains définissent l’évolution comme la croissance de la complexité, bien sûr. Mais cette définition ne correspond pas à la réalité. Pour la complexité, il y a plusieurs définitions : le nombre de parties différentes, l’intégration des parties, la complexité de forme de chaque partie. Au travers de ces définitions un peu différentes, nous avons en tête la même idée : il y a des choses simples qui n’ont pas beaucoup de parties et on va vers des choses plus complexes… Notre objectif, pour étudier ce sujet de façon scientifique, c’est de préciser ce que l’on veut dire par complexité. J’ai discuté, par exemple, les travaux de Dan McShea sur la complexité à travers les temps géologiques des mammifères et aussi de Boyajian sur les ammonites et, dans les deux cas, il n’y a pas de tendance générale vers la complexité. Chacune de ces études fait appel à une définition de la complexité. Mais le problème est réel : il n’y a pas une définition que tout le monde accepte… Pour un paléontologue, la diversité, c’est à la fois le nombre d’espèces différentes et la diversité de leurs anatomies. S’il y avait seulement un million d’espèces d’insectes et rien de plus, il y aurait moins de diversité qu’avec deux millions d’espèces et des insectes, des plantes, des champignons, des bactéries, etc. C’est le nombre d’espèces car chaque espèce est une population séparée, une entité biologique. La moyenne ne veut rien dire. Qu’est-ce que la complexité moyenne de la vie quand nous avons des bactéries, des insectes et des hommes ? Il n’y a que la diversité de la vie. L’histoire de la vie, c’est " l’éventail du vivant " (en anglais " the full house ", la maison pleine, un terme du jeu de poker). Il vaut mieux traiter l’histoire de la vie comme l’histoire de sa diversité qui croît - pas toujours car il y a aussi de grandes extinctions - qui croît donc et qui baisse. Le sens de la vie, c’est la diversité, pas la complexité. Tout dépend de ce que l’on entend par « complexe ». D’un point de vue neurologique le cerveau humain est plus complexe qu’aucun autre, mais par exemple du point de vue de l’architecture des os du crâne, on trouve plus compliqué chez d’autres mammifères, et plus compliqué encore chez les téléostes*. Le mot « complexité » a plusieurs sens dans le langage courant, qui se contredisent les uns les autres. Si l’on veut mesurer empiriquement la complexité, la quantifier, il nous faut une définition opérationnelle de la complexité. Il faut chaque fois décider de ce dont on parle. Certains chercheurs l’ont fait, par exemple pour les ammonites. On a pu démontrer que pour un caractère essentiel, les ammonites ne sont pas devenues de plus en plus complexes avec le temps. Le fait que le cerveau humain soit l’objet neurologique le plus complexe de la planète ne signifie pas que l’homme soit l’être le plus complexe. Le cerveau n’est pas tout, il y a bien d’autres structures complexes. Il n’est pas juste d’adopter une vue de l’évolution centrée sur le cerveau. Il n’existe pas de tendance générale de l’évolution vers des cerveaux plus grands. Il y a beaucoup plus d’espèces de bactéries que d’animaux multicellulaires et plus de 80 % des espèces de multicellulaires sont des insectes. Sur les quelque 4 000 espèces de mammifères il n’y en a qu’une qui soit consciente d’elle-même. On ne peut pas dire que l’accroissement de la complexité mentale caractérise l’évolution. L’effet de l’émergence de la conscience a été considérable ; mais ce n’est pas une définition de la complexité. La bombe atomique a eu un énorme effet, ce n’est pas plus complexe que certains explosifs chimiques. L’invention de la conscience a eu plus d’impact peut-être qu’aucune autre invention. Mais cela ne définit aucunement la complexité de la structure de l’objet en question. Et par ailleurs, si l’on se place cette fois du point de vue de l’évolution à venir, on ne voit pas clairement vers quoi nous allons. Il est possible que nous n’existions plus dans deux cents ans, parce que nous nous serons rayés de la carte. L’humanité n’apparaîtra plus alors que comme une expérience momentanée de l’histoire de la vie. L’exercice consistant à prendre en compte tout l’éventail des variations nous oblige à repenser la nature des tendances de l’évolution et l’histoire des systèmes naturels. C’est parce que nous n’avons pas appliqué ce principe que nous en sommes venus à ignorer le fait pourtant incontestable que nous sommes encore et sans doute pour toujours à l’ère des bactéries. Nous aimerions croire que l’histoire de la vie est celle d’une marche vers la complexité. C’est bien sûr vrai en ce sens que les êtres les plus complexes ont eu tendance à se complexifier davantage : mais ce n’est pas l’histoire de la vie, c’est l’histoire des êtres les plus complexes... Nous voudrions croire que l’aspect le plus fondamental de l’arbre de la vie est cette tendance à la complexification, mais ce n’est pas le cas. Pour moi le trait le plus fondamental de l’arbre de la vie est la constance du mode bactérien. Mon livre n’est qu’un plaidoyer pour considérer tout l’éventail de la variation… On ne peut parler du progrès comme d’une tendance forte de l’évolution. Je ne nie pas que les créatures les plus complexes soient devenues plus complexes au cours du temps. Mais ce n’est pas une indication que le système s’est éloigné d’une marche au hasard. Cela se serait produit de toute manière dans n’importe quel système dirigé par le hasard et débutant à proximité d’une limite infranchissable à gauche de la courbe de distribution. Je propose une analogie avec la marche de l’ivrogne qui sort d’un bar. Il se retrouve avec un mur à gauche et le trottoir à droite. A gauche il va heurter le mur, à droite il va finir par tomber dans le caniveau… Je ne dis pas qu’il ne se produit pas des événements de complexification, je dis que si l’on regarde l’ensemble de l’histoire, l’ensemble des variations effectives, la maison au complet avec tous ses habitants, on ne décèle pas de préférence pour la complexité. Le fait que l’homme soit plus complexe que les trilobites, qui sont plus complexes que les algues, qui sont plus complexes que les bactéries, ce fait-là, que je ne nie pas, est mineur au regard de l’histoire du vivant prise dans sa totalité… Bien sûr il doit exister un mécanisme par lequel a émergé par exemple la multicellularité, et ainsi de suite. Mon propos est de déterminer si de tels mécanismes s’inscrivent ou non dans une directionnalité, s’ils répondent à une nécessité - et la réponse est non. »

« Cette vision de la vie » de Stephen Jay Gould :

« L’évolution exprime un équilibre entre les caractéristiques internes des organismes et le vecteur externe du changement environnemental. Ces forces interne et externe incluent toutes deux des composantes aléatoires, ce qui écarte encore plus toute idée de tension vers l’union et l’harmonie. La force interne des mutations génétiques, source première des variations évolutives, fonctionne de manière aléatoire par rapport à la direction de la sélection naturelle. La force externe du chagement environnemental se modifie capricieusement par rapport au progrès et à la complexité des organismes… Je regrette également l’hypothèse excessivement adaptationniste qui affirme que tout trait évolutif dépourvu d’intérêt dans notre vie actuelle est probablement apparu autrefois pour de bonnes raisons, liées à des conditions passées qui ont depuis évolué. Dans notre monde impitoyable, complexe et partiellement aléatoire, nombre de traits n’ont tout simplement aucun sens fonctionnel. Point final…. »

Stephen Jay Gould écrit ainsi dans « Le renard et le hérisson » :

« Les propriétés qui apparaissent dans un système complexe sous l’effet des interactions non linéaires de ses composants sont dites émergentes – puisqu’elles n’apparaissent pas à un autre niveau et ne sont révélées qu’à ce niveau de complexité. (...) L’émergence n’est donc pas un principe mystique ou anti-scientifique, ni une notion susceptible d’avoir des échos dans le champ religieux (...) C’est une affirmation scientifique sur la nature des systèmes complexes. »

Agnès Lenoire, Science&Vie de décembre 2005 :

« L’idée d’une ascension vers l’homme, d’une graduation vers le plus abouti s’estompe et est destinée à mourir. En effet, le « complexe » n’est pas l’équivalent du « plus évolué ». Un simple recul par rapport à l’histoire du monde permet de débusquer l’illusion. La marche vers la complexité, qui donne une direction à l’évolution est donc caduque. Pourtant, à peine ce concept, qui replace l’homme au sein d’un foisonnement et non plus au sommet d’une pyramide, est-il bien compris et vulgarisé, que déjà on l’attaque sur un front sensible, parce qu’affectif : comment la complexité peut-elle être due au hasard ? Certes chacun d’entre nous est troublé devant la somme de coïncidences nécessaires à l’apparition de la vie et à son explosion. Mais passée la première impression, la réflexion, fondée sur le darwinisme, explique bien des mystères. »

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.