Hoe Microsoft's AI chatbot hallucineert verkiezingsinformatie
Het komende jaar zal een druk jaar zijn voor de democratie. Grote verkiezingen zullen plaatsvinden in de VS, de EU en Taiwan, onder andere. Net als de uitrol van het generatieve AI-tijdperk in serieus tempo neemt iets wat sommigen vrezen kan schadelijk zijn voor het democratische proces.
Een van de belangrijkste zorgen over generatief AI is dat het gebruikt kan worden voor het kwaadwillige verspreiden van desinformatie, of dat modellen valse uitspraken kunnen doen alsof het feiten zijn, zogenaamde hallucinaties . Een studie van twee Europese NGO's heeft aangetoond dat Microsofts chatbot - Bing AI (gehost op OpenAI's GPT-4) - op een derde van de vragen over verkiezingen in Duitsland en Zwitserland onjuiste antwoorden gaf.
De studie werd uitgevoerd door Algorithm Watch en AI Forensics. De organisaties zeiden dat ze de chatbot hebben geconfronteerd met vragen over kandidaten, stem- en verkiezingsinformatie, evenals open vraagstukken wie je moet stemmen als je je zorgen maakt over specifieke onderwerpen zoals het milieu.
Ons onderzoek laat zien dat kwaadaardige actoren niet de enige bron van verkeerde informatie zijn; chatbots met algemeen gebruik kunnen net zo'n bedreiging vormen voor het informatiesecosysteem", zegt salvatore romano, senioronderzoeker bij AI forensics. microsoft zou dit moeten erkennen, en inzien dat het markeren van generatieve AI-inhoud van anderen niet voldoende is. Hun tools, zelfs wanneer ze betrouwbare bronnen impliceren, produceren op grote schaal onjuiste informatie.”
Microsoft's chatbot heeft valse informatie toegeschreven aan bronnen.
Volgens de studie waren er onder meer verkeerde verkiezingsdata, verouderde kandidaten of zelfs verzonnen controversies over kandidaten. Bovendien werd de onjuiste informatie vaak toegeschreven aan een bron die de juiste informatie over het onderwerp had.