La
conscience de soi
Hier, j’ai regardé le film de science-fiction « Transcendance » de Wally Pfister
avec Johnny Depp et Rebecca Hall, dont le thème tourne autour des intelligences
artificielles et des théories transhumanistes qui prônent une amélioration
continue de l’humanité jusqu’à atteindre la « singularité » ou la
« transcendance », l’état d’évolution où notre conscience se
détachera complètement de notre corps biologique. Le film évoque toutes les inquiétudes
que peuvent faire naître ces théories transhumanistes et les sciences
convergentes NBIC (nanotechnologie, biologie génétique, informatique, sciences cognitive
et théories de l’information). Le transhumanisme est un vaste sujet extrêmement
intéressant et préoccupant quand on sait que c’est l’idéologie officielle des
patrons des grandes multinationales des nouvelles technologies (Google,
notamment pour parler de l’entreprise la plus célèbre et la plus emblématique
dans le domaine).
Mais ce à quoi je voudrais m’intéresser plus modestement, c’est
un court passage du film où Will Casey (incarné par Johnny Depp) présente son
super-ordinateur, appelé PINN et sensé renfermer une intelligence artificielle.
Un scientifique présent, Joseph Taggert (incarné par Morgan Freeman), interroge
alors la machine : « Quelle est
la preuve que vous êtes conscient de vous-mêmes (self-aware) ? ».
L’ordinateur répond : « C’est
une question difficile. Pouvez-vous prouver que vous êtes conscient de
vous-mêmes ? »
C’est une question centrale dans l’Histoire de la
philosophie occidentale depuis au moins René Descartes au XVIIème
siècle. Dans son Discours de la Méthode,
Descartes défend l’idée que les animaux ne sont conscients, pas des sujets
pensants et qu’ils ne ressentent pas réellement les choses. Pour Descartes, les
animaux réagissent comme des automates aux différents stimuli de la Nature.
C’est la théorie de l’animal-machine : « Ce qui ne semblera nullement étrange à ceux qui, sachant combien de
divers automates, ou machines mouvantes, l’industrie des hommes peut faire,
sans y employer que fort peu de pièces, à comparaison de la grande multitude
des os, des muscles, des nerfs, des artères, des veines, et de toutes les
autres parties qui sont dans une machine, qui, ayant été faite des mains de Dieu
est incomparablement mieux ordonnée et, a en soi des mouvements plus
admirables, qu’aucune de celles qui peuvent être inventées par l’homme ».
En d’autres mots, si un chien crie ou grimace quand vous le frappez, ce n’est
pas du fait qu’il est conscient de sa douleur, mais que tout un système de
nerfs, d’artères et de veines réagissent comme autant de poulies et de rouages
qui conduisent à mouvoir la gueule et la langue du chien et à le faire produire
des sons.
On le voit : la question de la conscience de soi se
décline toujours sur un mode binaire : pour Descartes, oui, l’homme est
conscient de lui-même puisqu’il peut penser avec son âme et développer des
raisonnements complexes du style « Je pense, donc je suis ». Et non,
l’animal n’est pas conscient même s’il peut donner l’impression trompeuse de
l’être à cause de son comportement. On a l’impression qu’il ressent la douleur
quand il crie ou aboie, mais c’est une illusion : derrière les cris de
douleur se cachent une mécanique complexe qui n’implique aucune sensation,
aucune conscience de soi.
Au XXème siècle, cette question a pris une autre
tournure quand le mathématicien de génie, Alan Turing s’est demandé en 1950 à
partir de quand on peut dire qu’une machine pense : c’est ce qu’on a
appelé le test de Turing. Imaginons un examinateur humain qui envoie des
messages à une machine et à un être humain (sans les voir physiquement).
L’examinateur pose toutes sortes de questions écrites aux deux pour faire
connaissance. Turing postule que la machine pourra être qualifiée de
« pensante » quand elle sera capable de bluffer l’examinateur et de
se faire passer pour humaine. La difficulté pour une machine, c’est de
comprendre les subtilités et les nuances du langage humain. Quand il faut
vouvoyer quelqu’un et quand on peut le tutoyer par exemple. Ou quand on emploie
les mots non pas dans leur sens concret, mais dans un sens métaphorique. Se je
dis de manière familière, « je suis cassé », je ne veux pas dire que
mon corps est brisé en plusieurs morceaux, ce qui serait très problématique,
mais qu’après une journée de dur labeur, je suis très fatigué et que j’ai des
courbatures dans tout le corps. Un humain va comprendre cela tout de suite. Une
machine va par contre se heurter à cet illogisme humain ! Pareillement,
quand je dis : « je me casse », je dis vulgairement que je m’en
vais, et pas que je m’inflige une quelconque violence. On voit que le mot
« casser » peut prendre toutes sortes de sens selon les contextes. Pour
un ordinateur, il est difficile de bien évaluer les niveaux de langage. On ne
dira pas ainsi : « je me casse » à son patron, sauf si vous
claquez la porte de votre boulot !
Une réponse célèbre à ce test de Turing a été l’expérience
de pensée menée par le philosophe américain John Searle et appelée la
« chambre chinoise ». Imaginez que vous êtes dans une gigantesque
bibliothèque uniquement composée de livres et de manuels en chinois.
Vous-mêmes, vous ne parlez pas un traitre mot de chinois. Un chinois de souche vous
envoie des questions en chinois que vous ne comprenez absolument pas. Mais dans
votre gigantesque bibliothèque, vous avez toutes les consignes et instructions
nécessaires pour répondre à chacune des propositions. Vous ne comprenez rien de
que vous faites ; pourtant vous êtes en mesure de duper votre chinois de
souche. Un ordinateur qui aurait suffisamment de mémoire et des processeurs
assez puissants pour répondre à toutes vos questions semblerait parfaitement en
mesure de penser et de simuler la conscience. Pourtant, il ne s’agirait que
d’une machine sans conscience.
La situation se corse quand John Haugeland, un autre
philosophe américain officiant à Chicago, propose de réduire notre
bibliothécaire ignorant le chinois à la taille d’un minuscule personnage de
l’échelle du micron. Notre mini-bibliothécaire est capable de se déplacer à une
vitesse prodigieuse dans un espace de 1300 cm³, le volume d’un cerveau humain.
Au lieu d’étagères poussiéreuses remplies de livres, notre mini-bibliothécaire
se déplace dans un réseau de neurones où il va chercher ses réponses. Là où
John Searle montre que machine n’est pas nécessairement pensante et consciente,
même si elle est capable de répondre à toutes les questions, mêmes les plus subtiles
et si elle capable de se faire passer pour humaine, John Haugeland montre que
le cerveau humain n’est pas nécessairement conscient et qu’on peut le comparer
lui aussi à une machine sans âme. Notre mini-bibliothécaire n’est plus qu’un
influx électrique traversant les circuits neuronaux du cerveau.
Cette position de John Haugeland rejoint un ouvrage célèbre
qui avait défrayé la chronique au Siècle des Lumières : « L’homme-machine » rédigé en 1748
par Julien d’Offroy de la Mettrie. De la Mettrie a voulu prendre le contrepied
du Discours de la Méthode de René
Descartes : là où Descartes défend l’idée de l’animal-machine, de la
Mettrie pense que l’homme est également une machine sans âme ou conscience
transcendante ! Pour Searle, la machine qui semble pensante ne l’est pas
nécessairement. Pour Haugeland, la machine neuronale qu’est le cerveau et qui
semble pensante ne l’est pas nécessairement non plus !
merci :)
RépondreSupprimer