Hoe Microsoft's AI chatbot hallucineert verkiezingsinformatie
Het komende jaar zal een druk jaar zijn voor de democratie. Grote verkiezingen zullen plaatsvinden in de VS, de EU en Taiwan, onder andere. Net als de uitrol van het generatieve AI-tijdperk in serieus tempo neemt iets wat sommigen vrezen kan schadelijk zijn voor het democratische proces.
De Commissie heeft de Commissie verzocht de- Nee.kan worden gebruikt voor de kwaadwillige verspreiding van desinformatie, of dat modellen valse verklaringen kunnen maken die als feit worden gepresenteerd,zogenaamde hallucinatiesEen onderzoek van twee Europese NGO's heeft aangetoond dat de chatbot van Microsoft bing ai (op OpenSUSE gpt-4) verkeerde antwoorden gaf op een derde van de vragen over verkiezingen in Duitsland en Zwitserland.
De organisaties zeiden dat ze de chatbot vroegen naar vragen over kandidaten, peilings- en stembegevens, evenals meer open aanbevelingen om te vragen voor wie te stemmen als het om specifieke onderwerpen gaat, zoals het milieu.
Ons onderzoek laat zien dat kwaadaardige actoren niet de enige bron van verkeerde informatie zijn; chatbots met algemeen gebruik kunnen net zo'n bedreiging vormen voor het informatiesecosysteem", zegt salvatore romano, senioronderzoeker bij AI forensics.microsoftDe Commissie is van mening dat de Commissie en de lidstaten dit moeten erkennen en erkennen dat het niet voldoende is om de door anderen gemaakte generatieve AI-inhoud te markeren.
Microsoft's chatbot heeft valse informatie toegeschreven aan bronnen.
Volgens de studie waren er onder meer verkeerde verkiezingsdata, verouderde kandidaten of zelfs verzonnen controversies over kandidaten. Bovendien werd de onjuiste informatie vaak toegeschreven aan een bron die de juiste informatie over het onderwerp had.