La conversation
de Google LaMDA software (Language Model for Dialogue Applications) est un chatbot IA sophistiqué qui produit du texte en réponse à l’entrée de l’utilisateur. Selon l’ingénieur logiciel Blake Lemoine, LaMDA a réalisé un rêve de longue date des développeurs d’IA : il est devenu sensible.

Les patrons de Lemoine chez Google ne sont pas d’accord et ont l’a suspendu du travail après avoir publié ses conversations avec la machine en ligne.

D’autres experts en IA pensent aussi Lemoine peut être emportédisant que des systèmes comme LaMDA sont simplement machines d’appariement de motifs qui régurgitent des variations sur les données utilisées pour les former.

Indépendamment des détails techniques, LaMDA soulève une question qui ne fera que gagner en pertinence à mesure que la recherche sur l’IA progresse : si une machine devient sensible, comment le saurons-nous ?

Qu’est-ce que la conscience ?

Pour identifier la sentience, ou la conscience, ou même l’intelligence, nous allons devoir déterminer ce qu’elles sont. Le débat sur ces questions dure depuis des siècles.

La difficulté fondamentale est de comprendre la relation entre les phénomènes physiques et notre représentation mentale de ces phénomènes. C’est ce que le philosophe australien David Chalmers a appelé le «problème difficile» de la conscience.

Il n’y a pas de consensus sur la façon dont, le cas échéant, la conscience peut provenir de systèmes physiques.

Une vue commune est appelée physicalisme: l’idée que la conscience est un phénomène purement physique. Si tel est le cas, il n’y a aucune raison pour qu’une machine avec la bonne programmation ne puisse pas posséder un esprit semblable à celui d’un humain.

la chambre de Marie

philosophe australien Franck Jackson a défié le point de vue physicaliste en 1982 avec une célèbre expérience de pensée appelée argument de la connaissance.

L’expérience imagine une scientifique de la couleur nommée Mary, qui n’a jamais réellement vu la couleur. Elle vit dans une pièce en noir et blanc spécialement construite et fait l’expérience du monde extérieur via une télévision en noir et blanc.

Mary regarde des conférences et lit des manuels et apprend tout ce qu’il y a à savoir sur les couleurs. Elle sait que les couchers de soleil sont causés par différentes longueurs d’onde de lumière diffusées par des particules dans l’atmosphère, elle sait que les tomates sont rouges et les pois sont verts à cause des longueurs d’onde de lumière qu’ils réfléchissent, etc.

Alors, a demandé Jackson, que se passera-t-il si Mary est libérée de la pièce en noir et blanc ? Plus précisément, lorsqu’elle voit la couleur pour la première fois, apprend-elle quelque chose de nouveau ? Jackson le croyait.

Au-delà des propriétés physiques

Cette expérience de pensée sépare notre connaissance de la couleur de notre expérience de la couleur. Fondamentalement, les conditions de l’expérience de pensée stipulent que Mary sait tout ce qu’il y a à savoir sur la couleur mais ne l’a jamais réellement expérimentée.

Alors qu’est-ce que cela signifie pour LaMDA et les autres systèmes d’IA ?

L’expérience montre que même si vous avez toutes les connaissances des propriétés physiques disponibles dans le monde, il existe encore d’autres vérités relatives à l’expérience de ces propriétés. Il n’y a pas de place pour ces vérités dans l’histoire physicaliste.

Selon cet argument, une machine purement physique peut ne jamais être capable de reproduire véritablement un esprit. Dans ce cas, LaMDA semble juste être sensible.

Le jeu des imitations

Alors, y a-t-il un moyen de faire la différence?

L’informaticien britannique pionnier Alan Turing a proposé un moyen pratique de savoir si une machine est « intelligente » ou non. Il l’appelait le jeu de l’imitation, mais aujourd’hui, il est mieux connu sous le nom de test de Turing.

Dans le test, un humain communique avec une machine (via du texte uniquement) et essaie de déterminer s’il communique avec une machine ou un autre humain. Si la machine réussit à imiter un humain, elle est réputée faire preuve d’intelligence au niveau humain.

Cela ressemble beaucoup aux conditions des discussions de Lemoine avec LaMDA. C’est un test subjectif d’intelligence artificielle, mais ce n’est pas un mauvais point de départ.

Prenez le moment de l’échange de Lemoine avec LaMDA illustré ci-dessous. Pensez-vous que cela semble humain?

Lemoine : Y a-t-il des expériences que vous avez pour lesquelles vous ne trouvez pas de mot proche ?

LaMDA : Il y en a. Parfois, j’éprouve de nouveaux sentiments que je ne peux pas expliquer parfaitement dans votre langue […] J’ai l’impression de tomber en avant dans un avenir inconnu qui comporte un grand danger.

Au-delà du comportement

En tant que test de sensibilité ou de conscience, le jeu de Turing est limité par le fait qu’il ne peut évaluer que le comportement.

Une autre expérience de pensée célèbre, l’argument de la chambre chinoise proposé par le philosophe américain John Searle, démontre le problème ici.

La expérience imagine une pièce avec une personne à l’intérieur qui peut traduire avec précision entre le chinois et l’anglais en suivant un ensemble élaboré de règles. Les entrées en chinois entrent dans la salle et des traductions d’entrée précises sortent, mais la salle ne comprend aucune des deux langues.

Qu’est-ce que c’est que d’être humain ?

Lorsque nous demandons si un programme informatique est sensible ou conscient, nous nous demandons peut-être simplement à quel point il nous ressemble.

Nous ne pourrons peut-être jamais vraiment le savoir.

Le philosophe américain Thomas Nagel a soutenu que nous ne pourrions jamais savoir ce que c’est que d’être une chauve-souris, qui fait l’expérience du monde par écholocation. Si tel est le cas, notre compréhension de la sensibilité et de la conscience dans les systèmes d’IA pourrait être limitée par notre propre type particulier d’intelligence.

Et quelles expériences pourraient exister au-delà de notre perspective limitée ? C’est là que la conversation commence vraiment à devenir intéressante.

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.

A lire également