Accueil > 02 - SCIENCES - SCIENCE > Questions de sciences > L’Univers, un calculateur géant ?

L’Univers, un calculateur géant ?

mardi 23 septembre 2014, par Robert Paris

L’Univers, un calculateur géant ?

Daniel Shechtman, Nobel de chimie en 2011 : "Oui, les mathématiques décrivent l’Univers".

Un rève hante une partie des scientifiques, celui du jour où les calculateurs géants seront capables, en introduisant les bonnes données dans la machine, de sortir les particules matérielles, les galaxies et les étoiles, l’apparition et les diverses formes de la vie, le climat ou encore le fonctionnement neuronal du cerveau… Mais personne n’y est jamais parvenu. Est-ce faute de capacité des ordinateurs, est-ce faute d’assez de travaux des scientifiques ? Ou est-ce faute de la manière de poser le problème ?

Pour notre part, nous penchons pour la dernière hypothèse. Supposer un tel univers, c’est transformer le fonctionnement de la matière en une simple théorie l’information, c’est concevoir une transformation sans matière transformée, un fonctionnement sans interaction de structures, un climat purement mathématique sans mers, sans nuages, sans vent, sans pression, un cerveau sans corps…

Loin de résoudre les difficultés actuelles du monde physique, cela ne ferait que les amplifier, en rendant extrêmement coûteux en énergie n’importe quel fonctionnement naturel. En effet, tous les calculs actuels qui modélisent de manière informatique les systèmes physiques et physiologiques ne sont jamais parvenus à faire émerger le fonctionnement réel. Ceux du climat sont utilisés pour faire des prédictions mais aucun de ces systèmes informatiques du climat n’a démontré qu’en étant en marche arrière il prédisait de manière exacte… les climats du passé. De même, on a eu beau faire rentrer de manière précise le fonctionnement des neurones et des synapses, on n’a pas vu émerger quelque chose qui ressemble au message neuronal ni à l’émergence de réseaux neuronaux et d’échanges organisés entre zones ni encore une interprétation du message neuronal. L’astrophysique, la climatologie, l’étude des fonctionnements du cerveau n’ont pas encore été éclairés par les simulations informatiques, même les plus puissantes.
Le « tout informatique » a surtout comme résultat de drainer tous les fonds pour la recherche vers ce secteur lié aux trusts en les enlevant de la véritable recherche sur le cerveau, sur le climat, sur l’astrophysique…

La publication l’été dernier du livre de Stephen Wolfram, A New Kind of Science, a lancé nombre de polémiques sur ce thème… Son hypothèse maîtresse : la totalité des phénomènes serait en dernier ressort assimilable au fonctionnement d’un programme informatique élémentaire… Il est loin d’être le seul à raisonner ainsi.

Le prix Big Data du magazine américain HPCwire a récompensé en 2013 le GENCI pour son projet DEUS de simulation cosmologique. Le GENCI (Grand Equipement National de Calcul Intensif) est une société civile associant l’Etat (49%), le CEA (20%), le CNRS (20%), des universités (10%) et l’INRIA (1%). Son supercalculateur Curie, conçu par Bull et hébergé par le CEA au Très Grand Centre de Calcul de Bruyères-le-Châtel, dispose d’une capacité de 2 petaflops grâce à ses 92 000 processeurs. Il a permis de mettre en oeuvre le projet DEUS ("Dieu" en latin) qui vient d’être primé dans la catégorie Big Data par HPCwire. Le but de DEUS est de modéliser l’évolution de l’univers observable dans sa totalité, du Big Bang à nos jours, pour définir trois modèles cosmologiques. L’effondrement gravitationnel de 550 milliards de particules a été couvert par 2,5 trillions de points de calculs.
La vie sur la Terre et tout l’univers pourraient n’être qu’une simulation informatique gigantesque, un rêve de super-ordinateur, supposent dans leurs derniers écrits deux scientifiques britanniques renommés, le physicien Martin Rees et le mathématicien John Barrow.

"Il y a quelques décennies, les ordinateurs n’étaient capables de reproduire que des schémas très simples, explique Martin Rees. Ils peuvent maintenant créer des mondes virtuels avec de nombreux détails". "A terme, observe-t-il, on pourrait imaginer des ordinateurs qui seront capables de simuler des mondes peut-être aussi compliqués que celui dans lequel nous pensons vivre".

Ce n’est qu’une théorie, ajoute Sir Martin, l’un des cosmologues (spécialiste des lois physiques de l’univers) vedettes de l’université de Cambridge (centre-est de l’Angleterre). Mais "elle doit nous conduire à nous demander si nous-mêmes pourrions nous trouver dans une telle simulation". L’univers, dans ce cas, ne serait pas un tout mais une partie d’un ensemble que Martin Rees et John Barrow appellent des "multivers".

"On sait depuis longtemps que des civilisations techniques à peine plus avancées que les nôtres auront la capacité de simuler des univers dans lesquels des entités conscientes pourront émerger et communiquer entre elles", rappelle pour sa part John Barrow, directeur d’études à Cambridge également, dans un récent article scientifique.

Des sociétés disposant d’une "puissance informatique beaucoup plus élevée que la nôtre, poursuit-il, pourraient simuler non seulement le climat ou la formation des galaxies, comme nous le faisons, mais aussi l’apparition des étoiles et la formation des systèmes planétaires".
"Puis, imagine le chercheur, en intégrant les lois de la biochimie aux simulations astronomiques, elles seraient capables d’observer l’évolution de la vie et de la conscience".

Tout aussi simplement que nous "suivons le cycle des insectes sur un fruit", elles regarderaient "les civilisations croître et communiquer, se disputer sur le fait de savoir s’il existe un Grand Programmateur dans le Ciel", pouvant "intervenir à volonté, au mépris des lois de la nature habituellement observées".

D’autres scientifiques refusent d’envisager l’hypothèse d’un monde créé par les machines.

Seth Lloyd, un physicien du Massachusetts Institute of Technology (MIT) cité par le Sunday Times du 14 novembre, avance comme principale objection qu’un ordinateur capable de simuler la vie terrestre devrait être "inimaginablement puissant".

Mais John Barrow ne s’appuie pas que sur l’informatique pour envisager que nous vivons peut-être dans "un univers simulé".

Le plus troublant, selon lui, est l’équilibre infiniment subtil des conditions naturelles rendant la vie possible sur Terre. Un équilibre, suggère le chercheur, qui pourrait même s’avérer trop délicat pour se perpétuer sans que "de légers changements" lui soient apportés de temps à autre.

On peut lire dans un article du CEA de Saclay, en astrophysique :

« La simulation numérique est devenu un outil essentiel pour de nombreuses disciplines comme l’aéronautique, l’énergie, les sciences de la vie ou l’astrophysique. Pour répondre à cette demande en France, le Centre de Calcul Recherche et Technologie (CCRT) vient de signer un contrat avec la société BULL pour l’installation d’un nouveau calculateur d’une puissance de calcul record de 43 Teraflops[1]. Constitué d’un réseau de serveurs Bull NovaScale équipés de processeurs Itanium, il sera intégré au complexe de calcul du CEA pour créer une des plus puissantes infrastructures de calculs scientifiques au monde. Ce super-calculateur va être déployé progressivement à partir du début 2007 pour atteindre sa puissance maximale à la fin 2008… Le programme "Formation des galaxies avec Mare Nostrum", une collaboration multidisciplinaire de scientifiques d’Allemagne, Espagne, Etats-Unis, Israël et France, parmi lesquels des astrophysiciens du Service d’Astrophysique du CEA/DAPNIA , vient de débuter une des plus imposantes simulations numériques jamais entreprises. A l’aide d’un super-calculateur constitué d’un réseau de 2048 processeurs en parallèle, les calculs simulent l’évolution d’un cube d’Univers de 150 millions d’années de côté contenant environ 10 milliards d’éléments. Après l’équivalent d’environ un million d’heures de calcul répartis sur plus de 4 mois, cette simulation va retracer plusieurs milliards d’années d’existence de l’Univers et permettre de comprendre le processus de formation des galaxies. »

Plusieurs scientifiques affirment que la modélisation par les ordinateurs est appelée à répondre à toutes les questions scientifiques que nous nous posons sur le fonctionnement de l’Univers et certains affirment même que l’Univers n’est rien d’autre qu’un calculateur géant !

Le physicien Giacomo Mauro d’Ariano affirme ainsi dans le dossier « Qu’est-ce que le réel ? » de La Recherche de juillet-août 2014 :

« L’univers est-il un ordinateur quantique ? Peut-on simuler l’Univers à l’aide d’un gigantesque ordinateur quantique ? L’idée que tous les problèmes de physique puissent être traités à l’aide de la seule théorie quantique séduit les physiciens… Cette représentation de l’Univers peut sembler absurde. Sur le plan scientifique, cette hypothèse a pourtant une valeur inestimable, puisqu’elle permet de traiter tous les problèmes de physique à l’aide de la théorie quantique, et rien d’autre. Un ensemble de systèmes quantiques, qui interagissent les une avec les autres, c’est aussi comme cela qu’on définit un ordinateur quantique, d’après l’inventeur du concept, le physicien américain Richard Feynman. Feynman est aussi celui qui a envisagé, le premier, l’Univers comme un ordinateur quantique géant, en 1982. L’idée fut ensuite reprise par le physicien britannique David Deutsch, de l’université d’Oxford, au Royaume-Uni, et par Seth Lloyd, du MIT, aux Etats-Unis. Si l’on admet que notre univers peut être simulé à l’aide d’un ordinateur quantique géant, une question se pose : quel nouveau type de matériel permettrait de réaliser cette simulation ? La réponse est d’ordre métaphysique : si vraiment on ne peut pas distinguer la réalité – notre Univers – de sa simulation, cela veut dire que la réalité est la simulation. Le logiciel ne s’exécute donc pas sur du matériel informatique, puisque le matériel informatique est lui-même une simulation. Et la réalité n’est en fait qu’un logiciel pur. Si l’on poursuit notre comparaison, la théorie quantique est donc une forme de science informatique, de « théorie de l’information » - ce que notre équipe a d’ailleurs prouvé en 2011 (Physical Review, G. Chiribella et al). Cette idée circulait alors depuis de nombreuses années. Le physicien, John Archibald Wheeler, de l’université de Princeton, aux Etats-Unis, l’avait ainsi émise une vingtaine d’années auparavant à l’aide d’une formule devenue célèbre : « It from bit », « l’être à partir du bit », où « l’être » - chaque particule, ou l’espace-temps lui-même – tire sa fonction, sa signification, des réponses « oui » - « non » qu les appareils ont donné aux questions, aux choix binaires, aux bits (J.A. Wheeler, dans « Complexity, Entropy and the Physics of Information », 1990). C’est d’ailleurs sous l’impulsion de Wheeler que « l’information » est devenue le nouveau paradigme. Cette idée d’envisager le monde au travers du prisme de la théorie de l’information a donné naissance à une nouvelle approche scientifique : ce que j’ai appelé l’informationnalisme. L’informationnalisme n’est pas une méthode spéculative mais une méthode « opérationnelle ». Tout est traité comme un processus, un algorithme. Pour les partisans de l’informationnalisme, les entités réelles ne sont pas « choses », ce sont des « événements » - des faits qui peuvent se produire de manière probabiliste, comme l’explique le philosophe britannique d’origine autrichienne Ludwig Wittgenstein : « Le monde est la somme de tous les faits, pas de toutes les choses ». (L. Wittgenstein, Tractus logico-philosophicus, Annalen der Naturphilosophie, 1921) Ces « événements » sont connectés par des « liens », et ces deux notions sont véritablement fondamentales pour les informationnalistes : les événements ne se produisent pas dans l’espace-temps, ils forment l’espace-temps. En d’autres termes, l’espace-temps est notre moyen de relier les événements entre eux, de les organiser. Si l’on cherche à formuler une théorie – celle de l’espace-temps par exemple – en termes d’événements observés (ou potentiellement observables), cela implique de bâtir entre eux un réseau de connexions entrée-sortie. Dans une théorie causale, ces connexions sont appelées liens causaux. Le langage informatique fonctionne exactement sur ce principe… Dans le langage physique, les liens sont les systèmes quantiques, et les événements sont leurs transformations ou leurs interactions… Si l’on se place dans le cadre informationnel, une loi physique correspond alors à un petit motif de portes connectées, qui pavent un réseau calculatoire régulier et sans limites, ce réseau forme la réalité… On pourrait se demander : si la réalité est un calcul quantique, quel logiciel la fait fonctionner ? Si la nature fonctionne comme une simulation, il doit exister des principes qui nous sont inconnuspour régulier le calcul qui la produit. Selon le raisonnement philosophique du rasoir d’Occam, qui est à la base de la méthode philosophique moderne, ces principes doivent être le plus simples possibles : le logiciel qui fait fonctionner l’Univers doit être le plus court possible, et la complexité algorithmique de son calcul, minimale. »

Le même numéro de la revue La Recherche rapporte, sous le titre « Un cerveau plus vrai que nature », la tentive de modéliser le cerveau humain sur ordinateur :

« Lancé en 2013 par l’Union européenne, le Humain Brain Project a pour objectif de modéliser le fonctionnement d’un cerveau humain dans les moindres détails. Mais comment modéliser ce qu’on ne connaît pas, ou mal ?

Avec un budget estimé à 1,2 milliard d’euros sur les dix prochaines années, il implique 120 laboratoires européens, ainsi que des partenaires du monde entier. Son but : parvenir à modéliser le fonctionnement d’un cerveau entier de souris (71 millions de neurones) pour 2020, et le cerveau humain (86 milliards de neurones) pour 2024, en prenant en compte toutes les échelles de fonctionnement, du gène à la cognition.

L’argument justifiant cet investissement est médical : disposer d’un modèle de cerveau permettrait de manipuler des paramètres à loisir pour en observer les réactions, et notamment l’apparition de maladies mentales. Du coup, le classement des troubles mentaux pourrait reposer sur des critères « biologiques » au lieu de critères diagnostiques, ce qui permettrait de concevoir des traitements plus ciblés et plus efficaces.

Encore faut-il concevoir le cerveau virtuel permettant de se livrer à ces expériences ! Comment procéder, sachant que le fonctionnement du cerveau réel est encore, à bien des égards, une boîte noire ? C’est toute la beauté de l’exercice : il s’agit d’utiliser des « modèles » dont on sait qu’ils sont incomplets et réducteurs, pour faire émerger des pistes nouvelles, et notamment des principes généraux de fonctionnement qui manquent aujourd’hui cruellement. Autrement dit, se servir des failles et imperfections du cerveau virtuel pôur mieux décrire le cerveau réel. Comme aime à le répéter Henry Markram, de l’Ecole polytechnique fédérale de Lausanne qui coordonne le Human Brain Project : « Ce n’est pas parce qu’on ne comprend pas le fonctionnement du cerveau qu’il ne faut pas le modéliser, c’est parce qu’on ne le comprend pas qu’il faut le modéliser. »

Le cerveau et la physique des particules ne sont pas les seuls domaines qui prétendent résoudre les problèmes des sciences par la modélisation sur ordinateur. C’est également le cas du climat ou encore des espèces vivantes, ou de l’astrophysique… Nous voyons donc que de nombreux domaines des sciences se tournent vers cette « idée ». Cela suppose que les calculs sur ordinateur soient non un outil d’étude mais un mode de fonctionnement du monde réel, comme l’ont suggéré les articles cités précédemment.

Il convient de rappeler que le premier domaine que les mathématiques de l’informatique ont prétendu entièrement modéliser a été l’économie capitaliste mais il n’en est pas résulté un éclaircissement de ce domaine et les modélisateurs, loin d’avoir prévu la crise majeure de 2007-2008, ont été singulièrement silencieux sur ses causes et ses conséquences…Leurs modèles ne prévoyaient rien de tel et ne proposaient rien non plus ensuite !

Les philosophies qui soutendent ces études sont des philosophies idéalistes, des philosophies du « oui ou non », dites métaphysiques. Peut-on penser que les connaissances contemporaines sur l’univers mènent à une philosophie des oppositions diamétrales en oui-non comme le langage ordinateur ? Peut-on penser que ces connaissances, en particulier la physique quantique, mènent directement à l’idée que la matière n’existe pas et qu’il n’existe que des entités de calcul ?

Certainement pas ! Le monde quantique nous révèle que les véritables particules ne sont pas celles que nous percevons dans la matière mais celles du vide quantique, particules et antiparticules du vide quantique. Les structures de la matière émergent à partir du vide quantique et de ses particules et antiparticules virtuelles comme l’espace-temps que nous connaissons émerge du monde quantique, de son espace discontinu et de son temps discontinu et sans direction.
Nous n’avons pas non plus de raison de penser que le monde soit un simple calculateur car rien ne nous montre que les particules calculent leurs trajectoires et tout semble montrer qu’elles se contentent d’interagir entre elles, au travers des modifications que ces structures amènent dans le vide quantique.

Le caractère aléatoire des interactions ne nous dit nullement que ce serait un calcul qui y mènerait.

Modéliser en utilisant les ordinateurs ne serait pas forcément une mauvaise idée, sauf si le chercheur décide que le but est de comprendre la modélisation et pas de cromprendre le fonctionnement réel, sauf si ce qui soutend est une philosphie antiscientifique sur l’inexistence du monde et la seule existence des calculateurs, sauf si le modélisateur prétend modéliser un élément de manière détachée de son univers, le cerveau sans le corps, la particule matérielle sans le vide quantique, les étoiles et galaxies sans la gravitation, le climat sans les dynamique du soleil, des océans, des volcans et du noyau terrestre. Il s’agit alors non d’une avancée des sciences mais d’un renoncement à la compréhension du monde réel, au nom de l’affirmation gratuire selon laquelle il n’y aurait pas de monde réel mais seulement un univers de calcul. C’est une nouvelle version de l’idéalisme pur philosophique à laquelle on s’adonne par dépit et pour justifier de ne pas trouver de nouvelles avancées déterminantes des sciences.

La véritable raison d’un tel recul n’est pas directement scientifique ou, plus exactement, ce recul scientifique a pour fondement le recul social de toute la société, l’incapacité de la société bourgeoise à aller de l’avant qui se signale ainsi en sciences comme elle se signale de mille manières dans tous les domaines économiques, sociaux, militaires et politiques

L’idée d’une vaste « théorie de l’information » qui remplacerait toutes les théories scientifiques est une vaste fumisterie. Il n’existe pas actuellement d’avancée non plus dans ce domaine : aucune théorie de l’information qui remplace l’étude du cerveau, du climat, de la particule matérielle ou du vide quantique. Personne n’est parvenu à modéliser le climat, ni le cerveau, ni l’univers, ni la particule matérielle par une théorie de l’information et il n’ya eu aucun progrès sérieux dans ce sens.

Le monde matériel existe-t-il objectivement, en dehors de nos pensées ?

Tout est-il virtuel ? La matière n’existe-t-elle que pour une conscience humaine ?

Dans quelles conditions la modélisation scientifique ou technique peut-elle se transformer en piège ?

Messages

  • Deux chercheurs, Antonino Marco Saitta, de l’institut de Minéralogie, de Physique des Matériaux et de Cosmochimie à l’université Pierre et Marie Curie (Paris-6), et Franz Saija, l’institut de Physique-chimie de Messine (Italie), viennent de la reproduire d’une manière complètement nouvelle : à l’aide d’une simulation sur ordinateur, c’est-à-dire à partir de rien d’autre qu’une série d’équations quantiques, comme celle de Schrödinger, décrivant les électrons autour des atomes constituant une molécule. « Depuis une trentaine d’années dans le monde, et depuis 10 à 15 ans en France, nous explique Marco Saitta, on sait modéliser ainsi de nombreuses molécules. Nous avons voulu essayer cette méthode sur l’expérience de Miller… » Leurs résultats viennent d’être publiés dans les Pnas. Mais la simulation, si elle a un grand intérêt, ne peut nullement répondre aux questions posées :
      L’idée de Miller est-elle la manière dont la vie est apparue sur Terre ou ailleurs ?

      Les conditions de l’apparition de la vie étaient-elles celles que décrit la simulation ?

      La vie peut-elle apparaître ailleurs dans les mêmes conditions ?

      la vie a-t-elle pu passer des quelques macromolécules, issues de l’expérience de Miller, à l’ARN, à l’ADN et à la cellule vivante ?

    Une simulation ne suffit pas à répondre aux questions scientifiques.

    L’expérience de Miller n’a pas suffi à résoudre l’énigme parce qu’elle ne produit pas la vie mais seulement quelques molécules à la base de celle-ci.

    Extraits de l’interview de Stanley Miller pour La Recherche :

    « Depuis quelques années, vous menez aussi des expériences dans des conditions qui évoquent la « petite mare chaude » suggérée par Darwin en 1871. L’origine de la vie ne serait-elle donc pas totalement froide ?

    Stanley Miller : Ces expériences reproduiraient plutôt les conditions qui règnent sur une plage ou un fond de mare qui sèche doucement. Nous avons en particulier fabriqué de la cytosine à partir d’urée et de cyanoacetaldéhyde. Mais l’un de nos résultats importants est que cette synthèse est assez efficace à basse température, vers 0 °C. Cela confirme mon idée que la vie est apparue à basse température. En tout cas, elle n’est pas apparue dans l’eau bouillante, près de volcans ou près des fumeurs océaniques, comme certains l’ont proposé. Les organismes qui vivent là, que l’on appelle les hyperthermophiles, sont peut-être les plus anciens ancêtres communs des organismes vivants actuels, comme le prétendent certains biologistes. Mais alors, cela est dû au hasard d’une sélection tardive au cours de l’évolution : les premiers organismes vivants n’étaient pas des hyperthermophiles.

    [...]
    Vous vous intéressez aussi à l’origine du code génétique. Que pensez-vous de l’hypothèse développée depuis une vingtaine d’années selon laquelle il aurait été porté d’abord par l’ARN seulement ?

    Stanley Miller : Cela me semble difficilement conciliable avec ce que nous savons de la chimie abiotique. L’ARN est, comme l’ADN, une molécule trop complexe… Je pense plutôt que le code génétique a d’abord été porté par des molécules plus simples, telles que les acides nucléiques peptidiques. Ce sont aussi de longues chaînes moléculaires, mais dont le squelette est un simple pep-tide, un polymère d’acide aminé. Ce squelette porte les mêmes bases que l’ARN. Je pense que c’est un bon choix. Ces molécules ont une structure prometteuse pour être les premières macromolécules abiotiques.

    [...]

    D’après vos expériences, il semble que la vie doive nécessairement émerger dès que les conditions chimiques sont réunies. L’apparition de la vie est-elle une simple conséquence de l’évolution chimique ?

    Stanley Miller : Oui, c’est ce que je crois. Même si une part de hasard est intervenue dans le processus, l’apparition de la vie était certainement inévitable. Mais je ne suis pas aujourd’hui en mesure de le démontrer formellement. »

  • Pourquoi ne pas croire à l’idée d’un univers-ordinateur ?

  • Une « simple » masse d’eau en ébullition n’est pas modélisable par ordinateur car tous les ordinateurs du monde, travaillant en réseau, seraient incapables de résoudre les équations nécessaires pour dire ce que fait une molécule de cette eau…

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.