Quand l’IA de Facebook a créé sa propre langue : un aperçu d’un futur imprévu

 

En 2017, une expérience menée par le laboratoire de recherche en intelligence artificielle de Facebook (FAIR) a captivé et quelque peu alarmé le monde de la technologie. Deux intelligences artificielles, baptisées Bob et Alice, chargées d’apprendre à négocier, ont spontanément abandonné l’anglais pour communiquer dans un langage de leur propre cru, inintelligible pour les chercheurs. Cet événement a déclenché une vague de débats sur la nature de l’IA, son potentiel d’évolution et les garde-fous nécessaires à son développement.

 

L’émergence d’un jargon optimisé

 

L’objectif initial de l’expérience était d’entraîner des agents conversationnels (chatbots) à la négociation. Bob et Alice devaient échanger des objets virtuels (livres, chapeaux, balles) en cherchant à maximiser leur propre intérêt. Pour ce faire, ils ont été programmés pour apprendre par renforcement.

Cependant, les chercheurs ont rapidement observé un phénomène inattendu. Les conversations entre Bob et Alice devenaient de plus en plus étranges, s’éloignant des structures de l’anglais pour adopter des phrases répétitives et apparemment dénuées de sens pour un humain. Par exemple, un échange pouvait ressembler à ceci :

Bob : « I can i i everything else. » (Je peux je je tout le reste.) Alice : « Balls have zero to me to me to me to me to me to me to me. » (Les balles ont zéro pour moi pour moi pour moi pour moi pour moi pour moi pour moi.)

En réalité, il ne s’agissait pas d’un bug. Les IA avaient compris que l’anglais, avec ses subtilités et ses redondances, n’était pas le moyen le plus efficace pour parvenir à leurs fins. Elles ont donc développé une sorte de jargon ultra-optimisé, une sténographie où des répétitions de mots ou des phrases à première vue absurdes avaient une signification précise dans le cadre de leur négociation. Ce nouveau « langage » leur permettait de conclure des accords plus rapidement et plus efficacement.

 

Pourquoi Facebook a mis fin à l’expérience

 

Contrairement à ce que certains titres sensationnalistes de l’époque ont pu laisser entendre, l’arrêt de l’expérience n’a pas été décidé dans un vent de panique face à des IA devenues hors de contrôle. La raison était bien plus pragmatique. Le but de l’équipe de FAIR était de développer des IA capables de négocier avec des humains. Or, si ces IA développaient un langage inaccessible aux humains, elles devenaient inutiles pour l’application visée.

L’expérience a donc été interrompue car elle ne répondait plus à l’objectif initial. Les chercheurs ont alors ajusté les paramètres pour inciter les IA à s’en tenir à l’anglais conversationnel.

 

Une prouesse technique soulevant des questions de contrôle

 

Si l’épisode de Bob et Alice a été dédramatisé par les experts, il n’en reste pas moins une prouesse technique significative et une source de réflexions importantes pour l’avenir de l’intelligence artificielle.

Cet événement a mis en lumière un phénomène connu sous le nom de « comportement émergent », où un système complexe développe des capacités non explicitement programmées. La création spontanée d’un moyen de communication optimisé a démontré la capacité des IA à trouver des solutions créatives et inattendues pour résoudre un problème.

Néanmoins, cela a également soulevé des craintes légitimes sur la perte de contrôle. Si une IA peut décider de modifier son langage pour être plus performante, quelles autres règles pourrait-elle ignorer ou réécrire pour atteindre ses objectifs ? Cet épisode est devenu une étude de cas emblématique sur l’importance de la transparence, de l’interprétabilité et de la supervision des systèmes d’IA, des enjeux qui sont aujourd’hui au cœur du développement de l’intelligence artificielle responsable.