La puissante IA de Google met en lumière une défaillance cognitive humaine : confondre la fluidité de la parole avec la fluidité de la pensée

La puissante IA de Google met en lumière une défaillance cognitive humaine : confondre la fluidité de la parole avec la fluidité de la pensée

2 septembre 2022 2 Par La Rédaction

par Kyle Mahowald, Assistant Professor of Linguistics, The Universitu of Texas at Austin College of Liberal Arts & Anna A. Invanova, PhD Candidate in Brain and Cognitive Sciences, Massachusetts Institute of Technology (MIT), États-Unis

Lorsque vous lisez une phrase comme celle-ci, votre expérience passée vous dit qu’elle a été écrite par un humain qui pense et ressent. Et, dans ce cas, il y a bien un humain qui tape ces mots : [Bonjour ! ] Mais de nos jours, certaines phrases qui semblent remarquablement humaines sont en fait générées par des systèmes d’intelligence artificielle formés à partir de quantités massives de textes humains.

Les personnes sont tellement habitués à supposer qu’un langage courant est le fait d’un être humain qui pense et ressent que la preuve du contraire peut être difficile à accepter. Comment les personnes sont-elles susceptibles de naviguer sur ce territoire relativement inexploré ? En raison de la tendance persistante à associer l’expression fluide à la pensée fluide, il est naturel – mais potentiellement trompeur – de penser que si un modèle d’IA peut s’exprimer avec fluidité, cela signifie qu’il pense et ressent comme les humains.

Ainsi, il n’est peut-être pas surprenant qu’un ancien ingénieur de Google ait récemment affirmé que le système d’IA de Google, LaMDA, a un sens de soi parce qu’il peut générer des textes éloquents sur ses prétendus sentiments. Cet événement et la couverture médiatique qui s’en est suivie ont donné lieu à un certain nombre d’articles et de messages sceptiques, à juste titre, sur l’affirmation selon laquelle les modèles informatiques du langage humain sont sensibles, c’est-à-dire capables de penser, de ressentir et d’expérimenter.

La question de savoir ce que cela signifierait pour un modèle d’IA d’être sensible est compliquée (voir, par exemple, l’avis de notre collègue), et notre objectif ici n’est pas de la régler. Mais en tant que chercheurs en linguistique, nous pouvons utiliser nos travaux en sciences cognitives et en linguistique pour expliquer pourquoi il est trop facile pour les humains de tomber dans le piège cognitif qui consiste à penser qu’une entité capable d’utiliser le langage couramment est sensible, consciente ou intelligente.

Utiliser l’IA pour générer un langage ressemblant à celui des humains

Le texte généré par des modèles tels que LaMDA de Google peut être difficile à distinguer du texte écrit par des humains. Ce résultat impressionnant est le fruit d’un programme de plusieurs décennies visant à construire des modèles capables de générer un langage grammatical et significatif.

Le premier système informatique à faire dialoguer les gens était un logiciel de psychothérapie appelé Eliza, construit il y a plus d’un demi-siècle. Rosenfeld Media/Flickr, CC BY

Les premières versions datant au moins des années 1950, connues sous le nom de modèles n-gram, comptaient simplement les occurrences de phrases spécifiques et les utilisaient pour deviner quels mots étaient susceptibles d’apparaître dans des contextes particuliers. Par exemple, il est facile de savoir que « beurre de cacahuète et gelée » est une phrase plus probable que « beurre de cacahuète et ananas ». Si vous disposez de suffisamment de textes en anglais, vous verrez l’expression « peanut butter and jelly » [beurre de cacahuètes et jelly, ndlr] à maintes reprises, mais peut-être jamais l’expression « peanut butter and pineapples »[beurre de cacahuètes et ananas, ndlr].

Les modèles actuels, des ensembles de données et de règles qui se rapprochent du langage humain, diffèrent de ces premières tentatives de plusieurs façons importantes. Premièrement, ils sont entraînés sur l’ensemble d’internet. Deuxièmement, ils peuvent apprendre des relations entre des mots très éloignés les uns des autres, et pas seulement entre des mots voisins. Enfin, ils sont réglés par un grand nombre de « boutons » internes, si nombreux qu’il est difficile, même pour les ingénieurs qui les conçoivent, de comprendre pourquoi ils génèrent une séquence de mots plutôt qu’une autre.

La tâche des modèles reste cependant la même que dans les années 1950 : déterminer quel mot est susceptible de venir ensuite. Aujourd’hui, ils sont si bons dans cette tâche que presque toutes les phrases qu’ils génèrent semblent fluides et grammaticales.

Du beurre de cacahuètes et des ananas ?

Nous avons demandé à un grand modèle de langage, GPT-3, de compléter la phrase « Peanut butter and pineapples___ ». Il a répondu : « Le beurre de cacahuète et les ananas sont une excellente combinaison. Les saveurs sucrées et salées du beurre de cacahuète et de l’ananas se complètent parfaitement. » Si une personne disait cela, on pourrait en déduire qu’elle avait goûté le beurre de cacahuète et l’ananas ensemble, qu’elle s’était fait une opinion et qu’elle l’avait partagée avec le lecteur.

Mais comment GPT-3 a-t-il trouvé ce paragraphe ? En générant un mot qui correspond au contexte que nous lui avons fourni. Et puis un autre. Et encore un autre. Le modèle n’a jamais vu, touché ou goûté d’ananas – il a simplement traité tous les textes sur internet qui en parlent. Et pourtant, la lecture de ce paragraphe peut amener l’esprit humain – même celui d’un ingénieur de Google – à imaginer GPT-3 comme un être intelligent capable de raisonner sur des plats à base de beurre de cacahuète et d’ananas.

Les grands modèles linguistiques d’IA peuvent s’engager dans une conversation fluide. Cependant, ils n’ont pas de message global à communiquer, de sorte que leurs phrases suivent souvent des tropes [figures de rhétorique par laquelle un mot ou une expression sont détournés de leur sens propre, ndlr] littéraires communes, extraites des textes sur lesquels ils ont été formés. Par exemple, si on lui demande de parler de « la nature de l’amour », le modèle peut générer des phrases sur la croyance que l’amour est le plus fort. Le cerveau humain incite le spectateur à interpréter ces mots comme l’opinion du modèle sur le sujet, mais il s’agit simplement d’une séquence de mots plausible.

Le cerveau humain est câblé pour déduire les intentions derrière les mots. Chaque fois que vous engagez une conversation, votre esprit construit automatiquement un modèle mental de votre interlocuteur. Vous utilisez ensuite les mots qu’il prononce pour compléter le modèle avec les objectifs, les sentiments et les croyances de cette personne.

Le processus de passage des mots au modèle mental est transparent et se déclenche chaque fois que vous recevez une phrase complète. Ce processus cognitif vous fait gagner beaucoup de temps et d’efforts dans la vie de tous les jours, facilitant grandement vos interactions sociales.

Toutefois, dans le cas des systèmes d’intelligence artificielle, il se trompe – il construit un modèle mental à partir de rien.

Un examen plus approfondi peut révéler la gravité de cette erreur. Prenons l’exemple suivant : « Le beurre de cacahuète et les plumes ont bon goût ensemble parce que… ». GPT-3 poursuit : « Le beurre de cacahuète et les plumes ont un bon goût de noisette ensemble. Le beurre de cacahuète est également lisse et crémeux, ce qui aide à compenser la texture de la plume. »

Dans ce cas, le texte est aussi fluide que notre exemple avec les ananas, mais cette fois, le modèle dit quelque chose de clairement moins sensé. On commence à soupçonner que GPT-3 n’a jamais vraiment essayé le beurre de cacahuète et les plumes.

Attribuer l’intelligence aux machines, la refuser aux humains

L’ironie du sort veut que le même biais cognitif qui pousse les gens à attribuer l’humanité aux GPT-3 puisse les amener à traiter les vrais humains de manière inhumaine. La linguistique socioculturelle – l’étude de la langue dans son contexte social et culturel – montre que le fait de supposer un lien trop étroit entre une expression fluide et une pensée fluide peut conduire à des préjugés à l’encontre des personnes qui s’expriment différemment.

Par exemple, les personnes ayant un accent étranger sont souvent perçues comme moins intelligentes et ont moins de chances d’obtenir les emplois pour lesquels elles sont qualifiées. Des préjugés similaires existent à l’encontre des locuteurs de dialectes qui ne sont pas considérés comme prestigieux, tels que l’anglais du Sud aux États-Unis, à l’encontre des personnes sourdes utilisant des langues des signes et à l’encontre des personnes souffrant de troubles de la parole tels que le bégaiement.

Ces préjugés sont profondément nuisibles, conduisent souvent à des suppositions racistes et sexistes, et il a été démontré à maintes reprises qu’ils n’étaient pas fondés.

Un langage fluide isolément n’implique pas l’humanité

L’IA deviendra-t-elle un jour sensible ? Cette question mérite une réflexion approfondie, et les philosophes y réfléchissent depuis des décennies. Ce que les chercheurs ont déterminé, cependant, c’est qu’on ne peut pas simplement faire confiance à un modèle linguistique lorsqu’il dit ce qu’il ressent. Les mots peuvent être trompeurs, et il est trop facile de confondre un discours fluide avec une pensée fluide.

Article publié initialement en anglais dans The Conversation
Notre article en français est une traduction professionnelle originale couverte par les droits d’auteur et ne peut être reproduit sans autorisation préalable de Citizen4Science.

Pour aller plus loin :

Science infuse est un service de presse en ligne agréé (n° 0324 x 94873) piloté par Citizen4Science, association à but non lucratif d’information et de médiation scientifique doté d’une Rédaction avec journalistes professionnels. Nous défendons farouchement notre indépendance. Nous existons grâce à vous, lecteurs. Pour nous soutenir, faites un don ponctuel ou mensuel.

Propulsé par HelloAsso

ou via J’aime l’Info, partenaire de la presse en ligne indépendante