Comment l'IA de discussion de Microsoft « hallucine » des informations sur les élections
L'année à venir sera une année chargée pour la démocratie. De grandes élections auront lieu aux États-Unis, dans l'UE et à Taïwan, entre autres. Alors que le déploiement de l'ère de l'IA générative accélère sérieusement — quelque chose que certains craignent pourrait nuire au processus démocratique.
L'une des principales préoccupations concernant la génération IA est qu'elle pourrait être utilisée pour la diffusion malveillante de désinformation, ou que les modèles peuvent inventer des affirmations fausses en les présentant comme des faits, soi-disant hallucinations . Une étude menée par deux ONG européennes a révélé que le chatbot de Microsoft — Bing IA (fonctionnant sur OpenAI’s GPT-4) — avait donné des réponses incorrectes à un tiers des questions sur les élections en Allemagne et en Suisse.
L'étude a été réalisée par Algorithm Watch et AI Forensics. Les organisations ont indiqué qu'elles avaient interrogé le chatbot avec des questions concernant les candidats, les sondages et les informations sur le vote, ainsi que des demandes de recommandations plus ouvertes sur qui voter en fonction de sujets spécifiques, tels que l'environnement.
« Nos recherches montrent que les acteurs malveillants ne sont pas la seule source de désinformation ; les chatbots à usage général peuvent être tout aussi menaçants pour l'écosystème de l'information », a commenté Salvatore Romano, Chercheur Senior chez AI Forensics. « Microsoft devrait reconnaître cela, et admettre que signaler le contenu généré par IA provenant d'autres sources n'est pas suffisant. Leurs outils, même lorsqu'ils impliquent des sources fiables, produisent des informations erronées à grande échelle.”
Le chatbot de Microsoft attribuait des informations erronées à des sources
Selon l'étude, les erreurs comprenaient des « dates d'élections incorrectes, des candidats obsolètes, voire des controverses inventées concernant les candidats. » De plus, les informations erronées étaient souvent attribuées à une source qui avait les bonnes informations sur le sujet. Cela incluait également la fabrication de « récits impliquant des candidats dans des comportements scandaleux », en attribuant ces informations à des sources réputées.