Kako Microsoftov AI chatbot "halucinira" volilne informacije
Prihajajoče leto bo za demokracijo naporno. Pomembne volitve bodo med drugim potekale v ZDA, EU in na Tajvanu. Tako kot uvajanje generativne dobe umetne inteligence resno nabira tempo - nekaj, česar se nekateri bojijo, da bi se lahko izkazalo za škodljivo za demokratični proces.
Eden glavnih pomislekov glede generativnega AI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, tako imenovane halucinacije. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Študijo sta izvedla Algorithm Watch in AI Forensics. Organizacije so dejale, da so chatbota spodbudile z vprašanji v zvezi s kandidati, informacijami o glasovanju in glasovanju, pa tudi z bolj odprtimi zahtevami za priporočila o tem, za koga glasovati, ko se ukvarjajo z določenimi temami, kot je okolje.
"Naše raziskave kažejo, da zlonamerni akterji niso edini vir napačnih informacij; splošni klepetalni roboti so lahko prav tako nevarni za informacijski ekosistem," je komentiral Salvatore Romano, višji raziskovalec pri AI Forensics. “Microsoftov should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Microsoftov chatbot je virom pripisal napačne informacije
Glede na študijo so napake vključevale "napačne datume volitev, zastarele kandidate ali celo izmišljene polemike glede kandidatov". Poleg tega so bile napačne informacije pogosto pripisane viru, ki je imel pravilne informacije o temi. Prav tako je izmišljal "zgodbe o kandidatih, ki so bili vpleteni v škandalozno vedenje", informacije pa je pripisal tudi uglednim virom.