Comment le chatbot de Microsoft hallucine les informations électorales
L'année à venir sera chargée pour la démocratie. Des élections majeures auront lieu aux États-Unis, dans l'UE et à Taiwan, entre autres. Au moment même où le déploiement de l'ère de l'IA générative prend de l'ampleur quelque chose dont certains craignent que cela ne soit
L'un des principaux problèmes concernant lesauest qu'il pourrait être utilisé pour la diffusion malveillante de désinformation, ou que les modèles peuvent faire de fausses déclarations les présentant comme des faits,les soi-disant hallucinations. une étude menée par deux ONG européennes a révélé que le chatbot de Microsoft bing ai (exécuté sur OpenStreetMap gpt-4) a donné des réponses incorrectes à un tiers des questions sur les élections en Allemagne et en Suisse.
L'étude a été menée par algorithm watch et AI forensics. Les organisations ont déclaré avoir incité le chatbot à poser des questions relatives aux candidats, aux sondages et aux informations sur le vote, ainsi qu'à des demandes de recommandations plus ouvertes sur qui voter lorsqu'il s'agit de sujets spécifiques, tels que l
Nos recherches montrent que les acteurs malveillants ne sont pas la seule source de désinformation; les chatbots à usage général peuvent être tout aussi menaçants pour l'écosystème de l'information, a déclaré salvatore romano, chercheur principal à AI forensics.MicrosoftLes outils utilisés par les chercheurs, même lorsqu'ils impliquent des sources fiables, produisent des informations incorrectes à grande échelle.
Le chatbot de microsoft a attribué de fausses informations à des sources
Selon les erreurs de l'étude, il y avait des dates d'élection erronées, des candidats obsolètes, ou même des controverses inventées concernant les candidats. en outre, les informations incorrectes étaient souvent attribuées à une source qui avait les informations correctes sur le sujet. il a également inventé histo