Vers une conscience artificielle

Le débat autour de l’intelligence artificielle est d’autant plus vif qu’il engage notre conception de ce qu’est être intelligent. Une définition généralement admise est qu’être intelligent suppose au minimum d’avoir conscience de ses actes et d’agir selon des motifs que l’on se représente. Mais, alors, qu’est-ce qu’être conscient ? Les avis divergent, mais deux éléments semblent être admis comme essentiels : une expérience qualitative, cohérente en état d’éveil de ce que nous percevons, et une compréhension de ce que nous disons et faisons. En d’autres termes, la conscience a un caractère de rationalité et d’intentionnalité.

Le test de Turing est bien connu : il entend montrer qu’une machine a la capacité de passer pour un humain. Les résultats de différentes intelligences artificielles jusqu’à aujourd’hui n’ont pas toujours été concluants, au point que la capacité même du test à démontrer l’intelligence a été critiquée. Le philosophe J. Searle l’a par exemple remis en cause en élaborant l’expérience de la « chambre chinoise ».

Admettons un système similaire à celui du test de Turing : un interlocuteur A parlant le chinois communique avec B, ne comprenant pas le chinois, mais possédant un manuel de réponses types compréhensibles. Searle suppose que l’interlocuteur B peut alors donner à A le sentiment de connaître le chinois, en suivant ces règles syntaxiques de base. Mais, en réalité, B n’a absolument aucune intelligence du chinois. Pour Searle, c’est le signe qu’une machine sophistiquée peut certes se montrer puissante dans la manipulation de formules, mais qu’elle est incapable d’en connaître la signification.

Dans le cas de la conscience, on touche à ce que le philosophe D. Chalmers a nommé « the hard problem of consciousness ». Comment la machinerie neuronale du cerveau est-elle capable de produire une expérience qualitative du monde perçu, appelée conscience ? Et donc, à quel moment un ensemble robotique complexe pourrait-il être dit conscient au sens où il aurait une représentation qualitative de ses performances ?

Les performances computationnelles ou de traitement de l’information ne suffisent pas, pour Chalmers, pour parler de conscience, car il y a un aspect irréductible qui est le caractère subjectif et qualitatif de notre expérience. Mais si notre conscience n’était qu’une production commode, mais illusoire, et que les seuls vrais processus étaient ceux qui ont physiquement lieu dans nos circuits neuronaux, comme le soutient D. Dennett ? En disant que la conscience « n’est pas dans le cerveau », il soutient qu’il n’y a pas de correspondance directe entre ce qui s’y produit et les états mentaux conscients, immatériels. Il est alors possible que la conscience ne soit que le nom donné à cette impression d’avoir une expérience unifiée du monde. Mais ce qui se produit dans la machine ne serait alors que le résultat des algorithmes et de la programmation, et n’aurait rien à voir avec de l’intelligence, terme applicable seulement à notre propre autoréflexion.

La robotique produit aujourd’hui des robots très sophistiqués qui imitent l’humain. Mais, il manque à cette machine une autonomie sur ce qu’elle fait, une subjectivité. Comme le dit encore Dennett, notre conscience se distingue par le fait que chacun peut établir à propos de soi une narration qu’il considère représentative de sa personnalité. En attendant, toute intelligence, aussi artificielle soit-elle, reste pensée dans un référentiel humain.

Aucune machine n’a encore créé son propre monde, indépendant du nôtre. Pour l’instant…

Ayott

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *