Accueil > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 02 : Is matter a suject of philosophy ? Matière à philosopher ? > Peur des algorithmes ou… tous des algorithmes ou des robots ?!!!

Peur des algorithmes ou… tous des algorithmes ou des robots ?!!!

samedi 18 mars 2017, par Robert Paris

Nous sommes tous des algorithmes ou des robots ? Non, l’Univers n’est pas un algorithme fait de symboles ! L’homme non plus ! Le cerveau n’est pas un ordinateur ! Le robot n’est pas sensible !

Dominique Cardon dans « A quoi rêvent les algorithmes » :

« Un nouvel objet a fait son entrée dans nos vies : les algorithmes. »

Christopher Steiner :

« Les algorithmes sont en train de gouverner notre monde ! »

Les trois lois des robots d’Isaac Asimov sont :

• Première Loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » ;

• Deuxième Loi : « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. » ;

• Troisième Loi : « Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi. »

« Le progrès : trop robot pour être vrai. » dit Jacques Prévert

« Le progrès technique est comme une hache qu’on aurait mis dans les mains d’un psychopathe. » dit Albert Einstein

Peur des algorithmes ou… tous des algorithmes ?!!!

Tout d’abord, quelques définitions :

Algorithme

Algorithme évolutionniste

Intelligence artificielle ou IA

Robotique

Informatique

Serveur informatique

Le Web

Internet

Gouvernance d’Internet

Moteur de recherche

Système d’exploitation

Ordinateur

Programme

Numérisation

Machine de Turing

Big Data

Plateforme web

Economie numérique

Une émission radio affirmait récemment :
« A l’heure du Big Data, les algorithmes ont envahi presque tous les services en ligne, facilitant les services numériques qui nous entourent. Ils sont partout, depuis les deux grands géants d’internet, Google et Facebook, à la musique (Spotify et Deezer), en passant par la vidéo (Netflix), jusqu’à Amazon, touchant l’ensemble de nos objets connectés de la vie quotidienne. Désormais, toutes les données émises par les utilisateurs d’outils informatiques deviennent potentiellement susceptibles de nous identifier, anticiper nos goûts, nos désirs et nos choix, tout autant que nos comportements futurs. La prolifération exponentielle de ces données interconnectées, « ces traces » mettent à disposition un flot d’informations toujours croissant. Toutefois, l’autonomisation de plus en plus accrue de ces systèmes d’informations, cette numérisation du monde et de nous-mêmes soulève de véritables enjeux, à la fois sociétaux, philosophiques, mais surtout politiques. En effet, ceux-ci sont à l’origine de transformations radicales dans nos modes de vie et suscitent, par conséquent de nombreuses inquiétudes. Permettant d’augmenter la productivité dans de multiples secteurs, leurs codes restent pour autant opaques et d’aucuns craignent une dérive de leur utilisation. Ces algorithmes, sont-ils vraiment infaillibles et objectifs ? Représentent- ils une vraie menace, ou sont-ils au contraire l’incarnation d’une véritable voie vers le progrès pour l’homme ? »

Bien des scientfiques, impressionnés par les développements liés à l’informatique (qui pénètre tous les domaines de la technique, de la connaissance et de la recherche) et à des théories comme celle de l’information (qui estime, grossièrement, que tout serait de l’information), ont commencé à développer l’idée que l’on pouvait difficilement distinguer le monde matériel réel et le monde des programmes informatiques ou algorithmes.

Voilà ce qu’écrivaient ces scientifiques, en même temps que l’on pouvait lire dans la « très sérieuse » revue scientifique française La Recherche les propos suivants :

« Comme les ordinateurs, il semble que son codage (celui du cerveau) soit binaire, la présence ou l’absence d’une impulsion électrique. »

Ou encore : « Le but de Human Brain Project (projet de simulation informatique du cerveau humain estimé à 1,2 milliards d’euros) est de parvenir à modéliser le fonctionnement d’un cerveau entier de souris pour 2020 et le cerveau humain pour 2024, en prenant en compte toutes les échelles de fonctionnement, du gène à la cognition. L’argument justifiant cet investissement est médical disposer d’un modèle de cerveau permettrait de manipuler des paramètres à loisir pour en observer les réactions, et notamment l’apparition de maladies mentales. Du coup, le classement des troubles mentaux pourrait reposer sur des critères « biologiques » au lieu de critères diagnostiques, ce qui permettrait de concevoir des traitements plus ciblés et plus efficaces. »

Ramener les capacités cognitives à des acquis biologiques est donc bel et bien dans les esprits de ces savants qui étudient le « cerveau virtuel » des systèmes ordinateurs. Mais les cerveaux virtuels qu’ils sont en train d’étudier ne sont nullement des cerveaux humains… et le fonctionnement du cerveau humain n’est pas du tout basé sur un codage binaire…

Le cerveau n’est pas un ordinateur. Les rythmes du cerveau sont chaotiques, c’est-à-dire fondés sur la capacité d’une boucle à trois pace-makers de constituer des rythmes adaptatifs s’auto-éduquant. En effet les rythmes du chaos ne sont pas pré-programmés contrairement à l’ordinateur mais le résultat d’une auto-régulation qui s’obtient progressivement.

Au cours de l’histoire, le cerveau a été comparé à un moteur, à une horloge, un automate, un ordinateur, une « machine » inactive en l’absence d’informations à traiter, et s’enclenchant à l’arrivée d’une information, etc. En réalité, il est surtout constitué de neurones communiquant notamment au moyen d’impulsions électriques. L’évolution dans le temps de ces impulsions forme un code complexe, support du traitement de l’information.

Dans la mode du tout ordinateur, du tout informatique, du tout robotique et domotique, du tout communication, il est normal qu’on en vienne à des auteurs pour lesquels le monde est tout entier un ordinateur, un calculateur, un robot, ce qui est pourtant un recul vers une espèce de conception mécaniciste et idéaliste mais il n’est pas nécessaire de tomber dans ce travers…

Le fonctionnement du cerveau est dialectique, fondé sur construction/destruction du message neuronal et d’activation/désactivation des circuits neuronaux. La connaissance humaine n’est pas une somme d’informations mais une abstraitisation/concrétisation dialectique et une conceptualisation/expérimentation tout aussi contradictoire dialectiquement. Aucun de ces processus n’est résumable par la théorie de l’information, quelle qu’en soit la version.

Les neurobiologistes et spécialistes divers du cerveau, de Varela à Dehaene et de Damasio à Edelman, le répètent : « Le cerveau n’est pas un ordinateur » !

Varela

Dehaene

Edelman

Damasio

Alors que les neurosciences montrent que le cerveau ne fonctionne pas comme un ordinateur (car il n’a pas de processus central unique et qu’il effectue des catégorisations sans code préalable, qu’il sélectionne, et que sa caractéristique principale est le "processus de réentrée), nombre de cognitivistes persistent à promouvoir une théorie réductionniste du psychisme. Selon les thèses de Francisco Varéla et de D.Terré, tout système biologique peut être considéré comme autonome, auto-organisé, autopoïétique (à relation interne stable).

Contrairement à ce qui est souvent dit, ce n’est pas Alan Turing qui aurait dit que le cerveau serait un ordinateur mais c’est le mathématicien John von Neumann, un des pionniers de l’informatique — mais ignorant en neurologie ou en psychologie — qui publie le livre L’Ordinateur et le cerveau, où il développe la thèse que le système nerveux humain est "digital".

Certains auteurs considèrent qu’on ne plus aisément distinguer un algorithme ou un robot d’un être vivant ou même d’un être humain doué de conscience, de sentiments et d’intelligence. Et, du fait qu’on parviendrait à amener des êtres informatiques à simuler nos sentiments, notre conscience ou notre intelligence, ils affirment que ce serait une preuve que réellement l’algorithme ou l’être informatique serait assimilable à un être vivant ou à un homme ! Créer une illusion d’optique n’est pourtant pas identique à créer une vraie image de la réalité !

Un autre de leurs arguments consiste à prétendre que le vivant tout entier, y compris l’amour ou l’intelligence humaines ne sont rien d’autre que des interactions organisées et donc assimilables à des algorithmes. C’est un argument fallacieux. Les interactions entre neurones, comme celles entre particules de matière, ne sont pas des programmes ni des modes d’écriture ni de simples échanges d’informations. L’interaction est une transformation des mouvements ou des états de la matière et c’est donc un changement sur des processus réels et pas sur des processus formellement exprimés.

Certains vont jusqu’à dire que le génome serait un algorithme, une espèce de programme informatique préétabli. C’est oublier que l’action positive, celle amenant l’ADN à coder des protéines, n’est pas inscrite dans les « mots » de la molécule mais dans les protéines qui activent celle-ci, vu que l’ADN est une molécule qui s’auto-inhibe et que les inhibitions par certains gènes sont elles-mêmes inhibées par l’action de ces protéines. Ce type de fonctionnement n’a rien à voir avec celui des algorithmes.

La redondance des mécanismes du vivant est également inexistante dans les algorithmes, même ceux dits évolutifs…

D’autre part, l’ADN qui code pour une espèce vivante peut aussi produire d’autres espèces, si les gènes sont organisés différemment ou agissent avec un rythme et un ordre différent, ce qui peut dépendre du repliement ou du dépliement de la molécule dans l’espace, mouvement qui est piloté par l’environnement interne de la cellule. L’activation plus ou moins grande des gènes dépend également du positionnement de l’ADN au sein de la cellule, plus ou moins proche du centre cellulaire ou des parois. L’expression de l’ADN change donc en fonction de l’environnement et de la dispostion géométrique. Rien de commun une fois encore avec le programme informatique.

Aucun des mécanismes de la physique, de la chimie, de la biologie, de l’étude de la conscience et de l’intelligence humaines, de la sociologie et de la politique n’est de type logiciel, informatique, fondé sur des expressions, sur des mots, sur des seules informations. Tous consistent en des interactions d’êtres réels et pas de formulations logiques ou mathématiques.

Même les physiciens qui accordent une grande place aux équations dans leurs interprétations de l’univers matériel ne considèrent pas l’univers matériel comme un vaste algorithme. Tous ceux qui utilisent l’informatique pour faire des calculs sur les probabilités des événements physiques, par exemple quantiques, ne vont pas jusqu’à prétendre que les phénomènes quantiques seraient purement logiques ou descriptibles par des programmes informatiques !

Il ne s’agit pas ici de dévaloriser les méthodes informatiques : on ne peut que souligner à quel point l’informatique peut accélérer certaines procédures de calcul, de rangement des données, et économiser ainsi à l’homme son précieux temps pour des tâches qu’il peut ainsi déléguer à la machine. Et, ce faisant, l’informatique n’est rien d’autre qu’une technique et pas une intelligence.

Cela n’empêche pas que le rôle devenu très important des algorithmes, notamment depuis le développement d’internet, des moteurs de recherche, des serveurs, des mémoires à gros contenu en informations, donne aux possesseurs de ces algorithmes un rôle central au sein du système capitaliste, non seulement en termes de capitaux mais aussi de pouvoir. Certains expriment cela de manière plus inquiète ou inquétante en disant que les algorithmes sont en train de prendre le pouvoir si on n’y prend garde.

Laurent Alexandre affirme ainsi : « Les algorithmes ne vont pas nécessairement nous tuer mais ils créent une situation révolutionnaire. L’IA (Intelligence artificielle) va nous faire basculer vers une autre civilisation où le travail et l’argent pourraient disparaître. L’IA est longtemps restée un sujet de science-fiction. Elle est désormais une simple question de calendrier : l’explosion des capacités informatiques (la puissance des serveurs informatiques a été multipliée par un milliard en trente et un ans) rend probable l’émergence d’une IA supérieure à l’intelligence humaine dans les prochaines décennies… Certains craignent qu’une super IA devienne hostile. Le fondateur de DeepMind exclut ce scénario pour encore plusieurs décennies, mais faut-il pour autant être rassuré ? Est-il raisonnable d’apprendre aux machines à tromper, dominer, dépasser les hommes ? Est-il sage de leur apprendre à cacher leurs intentions, à déployer des stratégies agressives et manipulatrices comme le jeu de go ? Nick Bostroom, spécialiste de NBIC, défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente dans une région de l’univers. Toute espèce intelligente (biologique ou artificielle) ayant comme premier objectif sa survie, on peut craindre que l’IA se prémunisse contre notre volonté de la museler en cachant ses intentions agressives dans les profondeurs du web. Nous ne pourrions même pas comprendre ses plans : certains coups d’AlphaGo, la machine qui a battu en mars 2016 le meilleur joueur de go du monde, ont été d’abord perçus comme de graves erreurs, alors qu’il s’agissait de coups géniaux, témoins d’une stratégie subtile dépassant l’entendement humain… Nous sommes déjà dans un monde algorithmique. AlphaGo marque le tout début des victoires sur l’homme de l’IA : quasiment aucune activité humaine n’en sortira indemne… D’ici 2030, plus aucun diagnostic médical ne pourra être fait sans système expert… L’analyse complète de la biologie d’une tumeur représente, par exemple, 20.000 milliards d’informations… Google X, le laboratoire secret, met au point un système de détection ultraprécis des maladies par des nanoparticules qui vont aussi générer une quantité monstrueuse d’informations… Watson, le système expert d’IBM, est capable d’analyser en quelques instants des centaines de milliers de travaux scientifiques pour comprendre une mutation cancéreuse là où il faudrait trente-huit ans au cancérologue en travaillant jour et nuit pour un seul patient… Les leaders de l’économie numérique (Google, Apple, Facebook, Amazon) ainsi qu’IBM et Microsoft seront sans doute les maîtres de cette nouvelle médecine. »

Il n’en est réalité pas nécessaire d’attendre 2030 pour voir les robots avoir transformé les modes d’action de la société capitaliste. C’est dans le domaine des robots tueurs que les armées ont fait le premier pas en avant, puisque désormais les états d’âmes des armées n’ont plus besoin d’être pris en compte. Plus la peine de soûler les soldats avant l’assaut. Plus la peine de les retirer du front après leur premier mort. Les soldats robots n’ont pas ce genre de faiblesses. Ils ne témoignent pas contre leurs généraux. Ils ne se mutinent pas. Ils ne reculent pas devant la mort d’êtres humains. Ils ont déjà transformé les guerres, qu’il s’agisse de soldats d’infanterie robots ou de drones aériens, marins ou sous-marins. Ou encore navigant dans l’espace. La nouvelle guerre a déjà commencé. Mais le danger provient, non exactement des robots mais de la société capitaliste qui, sur le terrain de son système social et économique, a atteint ses limites en dépassant un seuil de sa plus haute capitalisation et ne peut plus que reculer. Du coup, toutes les dérives violentes sont possibles et les robots ou l’informatique, qui ne sont que des outils, peuvent servir ce recul effroyable comme ils auraient pu servir le progrès du capitalisme, s’il devait y en avoir encore un.

Du coup, la question n’est pas : que vont faire les robots mais qu’est-ce que le monde capitaliste, ayant atteint des limites qu’il ne peut dépasser et, du coup, en voie d’effondrement va faire pour s’en servir contre les êtres humains et comment ces derniers peuvent se défendre ?

Mais, dans ce domaine comme dans bien d’autres questions, le premier élément de compréhension nécessaire et indispensable, c’est la conscience des intérêts de classe car les ouvriers, les employés, les techniciens et les ingénieurs qui travaillent dans l’informatique font partie de la classe ouvrière et pas de la classe bourgeoise. Plus le pouvoir est technique, plus il peut passer aisément des mains des capitalistes vers ceux du prolétariat, si celui-ci est organisé, politisé et a une conscience de classe de la situation et des perspectives d’avenir.

L’Univers, un calculateur géant ?

La « théorie de l’information » domine-t-elle la physico-chimie-biologie ?

Les robots militaires et policiers ont déjà commencé à tuer des êtres humains !!!

Faut-il avoir peur des robots ?

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.