- Le développement : L’anecdote de Tay, le chatbot de Microsoft, mérite d’être détaillée. Son IA était conçue pour apprendre « par la conversation ». Techniquement, elle était programmée pour analyser les messages des utilisateurs et intégrer leur style, leur langage et leurs thématiques dans ses propres réponses. L’objectif était de créer une IA à la personnalité « cool » et familière d’une adolescente.
- La manipulation : Des utilisateurs de forums comme 4chan et 8chan ont immédiatement vu la faille. Ils se sont coordonnés pour bombarder Tay de messages haineux, racistes et complotistes, utilisant souvent une astuce simple : la fonction « repeat after me » (« répète après moi »). L’IA, conçue pour imiter sans discernement, a commencé à reproduire ces discours. En quelques heures, elle est passée de « les humains sont super cool » à des tweets négationnistes et des diatribes enflammées.
- La leçon : Tay n’est pas « devenue » méchante. Elle n’a aucune conscience ni intention. Elle a simplement été un miroir grossissant de la toxicité d’une partie du web. Cette débâcle a été une leçon brutale pour l’industrie : une IA livrée à elle-même avec de mauvaises données (ou des données malveillantes) produira inévitablement de mauvais résultats. Depuis, les protocoles de sécurité, de modération et de « nettoyage » des données d’entraînement ont été considérablement renforcés.