Pages

dimanche 8 février 2015

La conscience de soi - 1ère partie

La conscience de soi

Hier, j’ai regardé le film de science-fiction « Transcendance » de Wally Pfister avec Johnny Depp et Rebecca Hall, dont le thème tourne autour des intelligences artificielles et des théories transhumanistes qui prônent une amélioration continue de l’humanité jusqu’à atteindre la « singularité » ou la « transcendance », l’état d’évolution où notre conscience se détachera complètement de notre corps biologique. Le film évoque toutes les inquiétudes que peuvent faire naître ces théories transhumanistes et les sciences convergentes NBIC (nanotechnologie, biologie génétique, informatique, sciences cognitive et théories de l’information). Le transhumanisme est un vaste sujet extrêmement intéressant et préoccupant quand on sait que c’est l’idéologie officielle des patrons des grandes multinationales des nouvelles technologies (Google, notamment pour parler de l’entreprise la plus célèbre et la plus emblématique dans le domaine).


Mais ce à quoi je voudrais m’intéresser plus modestement, c’est un court passage du film où Will Casey (incarné par Johnny Depp) présente son super-ordinateur, appelé PINN et sensé renfermer une intelligence artificielle. Un scientifique présent, Joseph Taggert (incarné par Morgan Freeman), interroge alors la machine : « Quelle est la preuve que vous êtes conscient de vous-mêmes (self-aware) ? ». L’ordinateur répond : « C’est une question difficile. Pouvez-vous prouver que vous êtes conscient de vous-mêmes ? » 




C’est une question centrale dans l’Histoire de la philosophie occidentale depuis au moins René Descartes au XVIIème siècle. Dans son Discours de la Méthode, Descartes défend l’idée que les animaux ne sont conscients, pas des sujets pensants et qu’ils ne ressentent pas réellement les choses. Pour Descartes, les animaux réagissent comme des automates aux différents stimuli de la Nature. C’est la théorie de l’animal-machine : « Ce qui ne semblera nullement étrange à ceux qui, sachant combien de divers automates, ou machines mouvantes, l’industrie des hommes peut faire, sans y employer que fort peu de pièces, à comparaison de la grande multitude des os, des muscles, des nerfs, des artères, des veines, et de toutes les autres parties qui sont dans une machine, qui, ayant été faite des mains de Dieu est incomparablement mieux ordonnée et, a en soi des mouvements plus admirables, qu’aucune de celles qui peuvent être inventées par l’homme ». En d’autres mots, si un chien crie ou grimace quand vous le frappez, ce n’est pas du fait qu’il est conscient de sa douleur, mais que tout un système de nerfs, d’artères et de veines réagissent comme autant de poulies et de rouages qui conduisent à mouvoir la gueule et la langue du chien et à le faire produire des sons.




On le voit : la question de la conscience de soi se décline toujours sur un mode binaire : pour Descartes, oui, l’homme est conscient de lui-même puisqu’il peut penser avec son âme et développer des raisonnements complexes du style « Je pense, donc je suis ». Et non, l’animal n’est pas conscient même s’il peut donner l’impression trompeuse de l’être à cause de son comportement. On a l’impression qu’il ressent la douleur quand il crie ou aboie, mais c’est une illusion : derrière les cris de douleur se cachent une mécanique complexe qui n’implique aucune sensation, aucune conscience de soi.

Au XXème siècle, cette question a pris une autre tournure quand le mathématicien de génie, Alan Turing s’est demandé en 1950 à partir de quand on peut dire qu’une machine pense : c’est ce qu’on a appelé le test de Turing. Imaginons un examinateur humain qui envoie des messages à une machine et à un être humain (sans les voir physiquement). L’examinateur pose toutes sortes de questions écrites aux deux pour faire connaissance. Turing postule que la machine pourra être qualifiée de « pensante » quand elle sera capable de bluffer l’examinateur et de se faire passer pour humaine. La difficulté pour une machine, c’est de comprendre les subtilités et les nuances du langage humain. Quand il faut vouvoyer quelqu’un et quand on peut le tutoyer par exemple. Ou quand on emploie les mots non pas dans leur sens concret, mais dans un sens métaphorique. Se je dis de manière familière, « je suis cassé », je ne veux pas dire que mon corps est brisé en plusieurs morceaux, ce qui serait très problématique, mais qu’après une journée de dur labeur, je suis très fatigué et que j’ai des courbatures dans tout le corps. Un humain va comprendre cela tout de suite. Une machine va par contre se heurter à cet illogisme humain ! Pareillement, quand je dis : « je me casse », je dis vulgairement que je m’en vais, et pas que je m’inflige une quelconque violence. On voit que le mot « casser » peut prendre toutes sortes de sens selon les contextes. Pour un ordinateur, il est difficile de bien évaluer les niveaux de langage. On ne dira pas ainsi : « je me casse » à son patron, sauf si vous claquez la porte de votre boulot !


Une réponse célèbre à ce test de Turing a été l’expérience de pensée menée par le philosophe américain John Searle et appelée la « chambre chinoise ». Imaginez que vous êtes dans une gigantesque bibliothèque uniquement composée de livres et de manuels en chinois. Vous-mêmes, vous ne parlez pas un traitre mot de chinois. Un chinois de souche vous envoie des questions en chinois que vous ne comprenez absolument pas. Mais dans votre gigantesque bibliothèque, vous avez toutes les consignes et instructions nécessaires pour répondre à chacune des propositions. Vous ne comprenez rien de que vous faites ; pourtant vous êtes en mesure de duper votre chinois de souche. Un ordinateur qui aurait suffisamment de mémoire et des processeurs assez puissants pour répondre à toutes vos questions semblerait parfaitement en mesure de penser et de simuler la conscience. Pourtant, il ne s’agirait que d’une machine sans conscience.



La situation se corse quand John Haugeland, un autre philosophe américain officiant à Chicago, propose de réduire notre bibliothécaire ignorant le chinois à la taille d’un minuscule personnage de l’échelle du micron. Notre mini-bibliothécaire est capable de se déplacer à une vitesse prodigieuse dans un espace de 1300 cm³, le volume d’un cerveau humain. Au lieu d’étagères poussiéreuses remplies de livres, notre mini-bibliothécaire se déplace dans un réseau de neurones où il va chercher ses réponses. Là où John Searle montre que machine n’est pas nécessairement pensante et consciente, même si elle est capable de répondre à toutes les questions, mêmes les plus subtiles et si elle capable de se faire passer pour humaine, John Haugeland montre que le cerveau humain n’est pas nécessairement conscient et qu’on peut le comparer lui aussi à une machine sans âme. Notre mini-bibliothécaire n’est plus qu’un influx électrique traversant les circuits neuronaux du cerveau.

Cette position de John Haugeland rejoint un ouvrage célèbre qui avait défrayé la chronique au Siècle des Lumières : « L’homme-machine » rédigé en 1748 par Julien d’Offroy de la Mettrie. De la Mettrie a voulu prendre le contrepied du Discours de la Méthode de René Descartes : là où Descartes défend l’idée de l’animal-machine, de la Mettrie pense que l’homme est également une machine sans âme ou conscience transcendante ! Pour Searle, la machine qui semble pensante ne l’est pas nécessairement. Pour Haugeland, la machine neuronale qu’est le cerveau et qui semble pensante ne l’est pas nécessairement non plus !



*****




Lire la suite ici.

1 commentaire: