Hoe de AI-chatbot van Microsoft verkiezingsinformatie 'hallucineert'
Het komende jaar wordt een druk jaar voor de democratie. Er vinden grote verkiezingen plaats in onder meer de VS, de EU en Taiwan. Net nu de uitrol van het generatieve AI-tijdperk serieus aan kracht wint - iets waarvan sommigen vrezen dat het schadelijk kan zijn voor het democratische proces.
Een van de belangrijkste zorgen over generatieve AI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, Zogenaamde hallucinaties. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Het onderzoek werd uitgevoerd door Algorithm Watch en AI Forensics. De organisaties zeiden dat ze de chatbot vroegen om vragen over kandidaten, peilingen en steminformatie, evenals meer open aanbevelingsverzoeken over op wie te stemmen als het gaat om specifieke onderwerpen, zoals het milieu.
"Ons onderzoek toont aan dat kwaadwillenden niet de enige bron van verkeerde informatie zijn; chatbots voor algemeen gebruik kunnen net zo bedreigend zijn voor het informatie-ecosysteem", aldus Salvatore Romano, Senior Researcher bij AI Forensics. “Microsoft (Engels) should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
De chatbot van Microsoft schreef valse informatie toe aan bronnen
Volgens de studie omvatten fouten "verkeerde verkiezingsdata, verouderde kandidaten of zelfs verzonnen controverses over kandidaten." Bovendien werd de onjuiste informatie vaak toegeschreven aan een bron die de juiste informatie over het onderwerp had. Het verzon ook "verhalen over kandidaten die betrokken waren bij schandalig gedrag", waarbij de informatie ook werd toegeschreven aan gerenommeerde bronnen.