Accueil > Idées | Par Naly Gérard | 27 juillet 2017

Neurosciences : l’intelligence peut-elle être artificielle ?

Le cerveau serait un ordinateur, et inversement : telle est la vision dominante des recherches actuelles sur le cerveau. Des voix scientifiques ou philosophiques critiquent cette réduction et les projets sur "l’intelligence artificielle" et le "cerveau augmenté".

Vos réactions
  • envoyer l'article par mail envoyer par mail
  • Version imprimable de cet article Version imprimable

Extrait du numéro d’été 2016 de Regards

* * *

Si l’on cherche un livre sur le cerveau, on trouvera, à côté d’ouvrages qui décortiquent nos perceptions sensorielles ou les prodigieuses qualités plastiques de l’encéphale, une ribambelle de guides aux titres accrocheurs : Développez votre mémoire grâce aux neurosciences, Les neurosciences au secours de la motivation, Éduquer au quotidien grâce aux neurosciences »... Le neuromathématicien Alessandro Sarti [1] s’en amuse : « Il est facile de faire de grandes annonces, mais il reste difficile d’affirmer des choses exactes sur le cerveau, et encore plus de parler d’applications concrètes ».

Plus sérieusement, une controverse majeure concerne l’approche théorique du cerveau. Au cœur de la discussion, la "théorie computationnelle du cerveau". Née il y a une cinquantaine d’années, cette vision établit une analogie entre le cerveau et l’ordinateur : notre encéphale serait un dispositif d’élaboration de l’information à partir des perceptions, assimilables à des données. Les sciences cognitives considèrent la vie mentale comme un processus de "traitement de l’information". La mémoire, le libre arbitre, nos émotions, notre conscience même seraient le résultat de connexions neuronales... « Penser reviendrait à calculer, et calculer reviendrait à programmer », résume Catherine Malabou, philosophe de la plasticité dans Que faire de notre cerveau ? (2004, réédité en 2011, éd. Bayard).

Algorithmes et péril

Ainsi, l’amalgame entre "pensée humaine" et "calcul informatique" domine aujourd’hui la recherche dans les nanotechnologies-biotechnologies-informatique et sciences cognitives (NBIC). Et cela se traduit d’ores et déjà dans le vocabulaire. Les algorithmes sont présentés comme une forme d’intelligence artificielle. Or comme l’explique Alessandro Sarti, on confond « un processus informationnel abstrait d’optimisation algorithmique et un processus de constitution du sens propre au cerveau ». Cette confusion n’est pas que théorique. Nous déléguons aux algorithmes une part croissante de la gestion des mégadonnées qui nous entourent : calcul, tri, mais aussi analyse, prévision et prise de décision. L’économie mondiale n’est-elle pas déjà pilotée par des algorithmes, au travers du trading dit "de haute fréquence" ? « Les algorithmes ne possèdent aucune intentionnalité, précise le neuromathématicien. Ils reçoivent de l’extérieur les critères d’optimisation. Le principe de maximisation du profit a été pris comme critère pour transformer l’économie en automatisme financier ».

De plus en plus, ce sont des grandes combinatoires et des machines qui décident à notre place. Dans La Vie algorithmique, Éric Sadin (éd. L’Échappée, 2015) décrit les nombreux domaines qui commencent à être gouvernés par des algorithmes : le marketing, la maison (avec les objets connectés), des quartiers des "villes intelligentes", le diagnostic médical (avec la médecine de données et les "profils" de patients)... Et maintenant, on nous annonce la science par algorithmes. La revue américaine Wired prédit que les théories scientifiques seront remplacées par l’élaboration des données : réorganisées par des algorithmes, ces données produiraient les théories de la physique, de la chimie, de la biologie [2].

Modèle "computationnel"

Pour la plupart des chercheurs des NBIC, notre cerveau serait comme un artefact auquel on pourrait ajouter des "fonctions". En témoigne la quête au niveau mondial de prothèses "augmentatives" pour accroître nos capacités. On cherche ainsi à inventer une neuroprothèse qui permettrait de contrôler à distance, par la pensée, un objet connecté. Bienvenue à "l’humain augmenté", annoncé par les transhumanistes... Un de leurs porte-voix, Laurent Alexandre, PDG de DNAVision (société qui détient le monopole du séquençage du génome en Europe), prévoit que l’on modifiera les cerveaux pour « apprendre plus vite » au lieu de chercher à éduquer. Dans la Silicon Valley, les scientifiques du centre d’innovation Singularity University lancé par Google, foyer ardent du transhumanisme, envisagent de "télécharger" l’esprit d’une personne sur une machine qui deviendrait alors douée de conscience. Ambition déclarée : survivre à la mort du corps.

Sans nécessairement endosser les délires transhumanistes, les grands programmes mondiaux de recherche sur le cerveau (voir encadré) se fondent sur cette approche réductionniste. Tous s’orientent vers la création d’un modèle "computationnel" du cerveau. Les États autant que les entreprises finançant la recherche – les mastodontes de l’économie numérique (Google, Apple, Facebook, Amazon) – concentrent tous les moyens sur les nanotechnologies-biotechnologies-informatique et sciences cognitives. Le projet Human Brain (« cerveau humain »), financé par la Commission européenne depuis 2013, en est un exemple. Ce vaste programme international affiche l’objectif de comprendre le fonctionnement du cerveau humain.

Projet cerveau humain

Parvenir à mettre en lumière la vie incroyablement complexe des neurones et des connexions neuronales capables de se modeler, de se modifier et de se réparer, ceci jusqu’à la fin de la vie, serait une avancée scientifique gigantesque. Avec des retombées immédiates attendues : elle ouvrirait la possibilité de soigner nombre de pathologies, de l’AVC aux maladies neurodégénératives comme Alzheimer. Pour y parvenir, le programme prévoit de récupérer toutes les données sur les neurones et leurs connexions auprès des hôpitaux et des centres de recherche européens et de les mettre en relation. À partir de ces bases de méga-données, il s’agirait de construire un ensemble d’infrastructures informatiques de simulation, en un mot un "superordinateur", pour visualiser les innombrables connexions neuronales de nos méninges (entre dix et cent milliards !). Le centre de simulation du projet Human Brain, hébergé par l’École polytechnique fédérale de Lausanne (Suisse), a bel et bien modélisé en octobre 2015 un échantillon du cerveau d’un rat nouveau-né. Mais seul le comportement électrique d’un fragment du néocortex (comportant huit millions de connexions) a été reconstruit numériquement. Cela reste bien limité.

Loin de soulever un enthousiasme unanime de la communauté scientifique, l’ensemble du projet européen suscite un certain scepticisme. L’utilité du "superordinateur", très coûteux, est mise en cause : comment construire une simulation lorsque l’on ignore encore pratiquement tout du fonctionnement de notre système nerveux central ? Comme le souligne avec humour un chercheur du Allen Institut aux États-Unis, nous n’arrivons pas encore à saisir le fonctionnement du cerveau du ver nématode qui comporte seulement trois cents neurones... Le chemin sera long avant de comprendre le cerveau humain et ses 83 milliards de neurones.

« L’encéphale dans un pot de confiture »

Le Projet Human Brain a également été critiqué parce qu’il concentrait les financements sur la recherche technologique plutôt que sur la recherche classique en neurosciences. Dans une lettre adressée en 2014 à la Commission européenne, trois cents chercheurs (rejoints par huit cents autres) réclamaient la réintégration des recherches expérimentales et théoriques plus larges [3]. Pour Alessandro Sarti, « l’infrastructure de pointe promise par le projet Human Brain pourrait être utile... pour les sciences de l’information et de la communication. Moins pour les neurosciences. Dans tous les cas, la condition impérative est que l’on ne confonde pas cet ordinateur avec un cerveau vivant ! », insiste-t-il.

Des chercheurs en sciences humaines, notamment le psychiatre Patrick Juignet et le philosophe des sciences Jean-Michel Besnier, auteur de L’Homme simplifié (éd. Fayard, 2012), mais aussi des neuroscientifiques condamnent l’analogie entre ordinateur et cerveau. « C’est comme si on plaçait l’encéphale dans un pot de confiture en disant qu’il est vivant ! », affirme le mathématicien Giuseppe Longo [4]. Dans son dernier essai, Miguel Benasayag rappelle l’évidence : « Le cerveau ne pense pas, tout le corps pense ». Le philosophe et psychanalyste, qui participe à des recherches sur les perceptions sensorielles, énumère ce qui empêche de mettre sur le même plan machine et cerveau. « Le vivant est contextualisé, lié à une infinité de variables de l’environnement, de l’histoire, de ce qui l’a déterminé dans la longue durée de l’évolution de l’espèce. Le vivant est singulier, il est aussi imprévisible, indéterminé, et n’a pas d’autre fin que lui-même. Notre cerveau, en expérimentant la vie, se modifie en permanence. Il n’y a pas une pensée qui circule par des circuits neutres : pensée et chair sont indivisibles ».

Logique du calcul et projet de barbarie

Chaque cerveau est différent et unique, et se sculpte en permanence. Non seulement le cerveau n’est pas un système clos et figé, mais il construit du sens. Alessandro Sarti l’explique : « On néglige souvent cette différence entre un processus de représentation de l’information et un processus de construction du sens. Notre cerveau est une interface entre le monde extérieur et le corps singulier. Alors qu’un modèle computationnel ne fait qu’élaborer des informations, le cerveau essaie, lui, de construire des objets mentaux ».

Comment expliquer l’hégémonie de cette approche "computationnelle", réductionniste ? « Le réductionnisme est une tentation, répond Benasayag. Il est si simple de trouver une cause unique. Or, il n’y a pas un savoir final : tout savoir se fonde sur un non-savoir structurel ». Mais « le projet transhumaniste est aujourd’hui le projet néolibéral individualiste, déclare Miguel Benasayag : la quête d’un corps parfait, sans souffrances, sans maladie, qui permettrait de vivre mille ans, d’échapper à la mort... Il passe par la disparition des limites humaines, ce qui est, inévitablement, un projet de barbarie ». Le philosophe voit dans cette idéologie et cette pratique un grand danger. « La pensée spéculative, la pensée éthique, la pensée philosophique, la culture ne doivent pas être colonisées par la logique du calcul, affirme-t-il. Il est nécessaire de défendre la régulation et la limitation, au nom de l’organicité de la vie même, de sa singularité. La seule solution est de réussir à incorporer la technologie au service de la vie et de la culture. On peut imaginer, par exemple, des médecins et des patients prenant position pour défendre une médecine qui incorpore les bienfaits de la technologie tout en restant une médecine du diagnostic et de la singularité ».

Critique de la raison numérique

La résistance doit venir de la société civile : « La politique est un mécanisme de régulation, dans la mesure où elle manifeste des courants vivants dont l’État démocratique doit se faire l’écho. C’est un défi pour tous les mouvements politiques : il faut une politique qui ne se fasse plus en termes de centralité du pouvoir mais dans un mouvement de longue durée, de construction de nouveaux paradigmes, de nouveaux modes de socialité ». Débattre des enjeux de la techno-science comme un sujet politique, s’interroger sur le poids de la technologie par rapport à la culture, à l’éducation ou la science est une urgence pour Éric Sadin. « Soumettre la vie algorithmique contemporaine à une critique en acte de la raison numérique qui l’ordonne relève d’un combat politique, éthique et civilisationnel majeur de notre temps », écrit-il.

Alessandro Sarti prône également une réorientation de la recherche. Pour lui, la recherche scientifique sur le cerveau devrait s’appuyer sur une étude de la singularité du vivant plutôt que sur la théorie computationnelle. Pour le neuromathématicien, les mathématiques contemporaines peuvent contribuer à comprendre le vivant sans le réduire à un système prévisible, à penser son immense complexité, en particulier sa part d’indétermination. Pour développer ces savoirs encore jeunes que sont les neurosciences, le chercheur du Centre d’analyse et de mathématiques sociales, préconise de croiser les disciplines scientifiques avec les sciences humaines. « Si l’on veut comprendre quelque chose du cerveau humain, il faut absolument faire des neurosciences au sein de laboratoires interdisciplinaires et travailler avec des chercheurs en psychologie ou sociologie, car les cerveaux sont en fait des sculptures sociales. »

Projet Human Brain : un exemple de méga-science

La compétition mondiale autour des neurosciences est comparable à celle sur le génome humain. Dans la course, on compte la BRAIN Initiative inaugurée en 2014 par le gouvernement américain, le China Brain Science Project lancé en 2015, et le projet Human Brain de la Commission européenne démarré en 2013. Ce dernier regroupe environ 80 instituts de recherche où travaillent plus de 180 responsables chercheurs de 24 pays, dans le cadre de 13 sous-programmes. La Commission finance 75% du projet, soit 500 millions d’euros d’ici à 2023 (54 millions d’euros ont déjà été versés). Le complément est apporté par les institutions participantes (le CNRS et le CEA, en France).

Ces programmes scientifiques de grande envergure relèvent de la méga-science (ou Big science) : ils s’appuient sur des consortiums gigantesques, des équipements souvent lourds, mobilisent une armée de chercheurs de toutes disciplines et accordent une place importante aux technologies informatiques, aux nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC). Leur but ? Développer de nouvelles technologies pour mesurer l’activité du cerveau, au croisement de la science et de la "recherche et développement" industrielle. De préférence en produisant des résultats rapides et spectaculaires.

Notes

[1Directeur de recherche au Centre d’analyse et de mathématiques sociales, de l’EHESS, rattaché au CNRS.

[2"The End of theory : The Data deluge makes the scientific method obsolete", de Chris Anderson, Wired, 23 juin 2008.

[3Directeur de recherche émérite au CNRS-Centre Cavaillès, à l’École normale supérieure.

[4"Open message to the European Commission concerning the Human Brain Project", 7 juillet 2014. Cette lettre a ensuite déclenché une réforme, en cours depuis le printemps 2016, qui devrait réintégrer la recherche expérimentale.

Vos réactions
  • envoyer l'article par mail envoyer par mail
  • Version imprimable de cet article Version imprimable

Sur le même thème

Vos réactions