Shenzhen Keshijin Electronics Co., LTD
banner

 > 

How Microsoft’s AI chatbot ‘hallucinates’ election information

Predstojeća godina će biti naporna za demokratiju. Glavni izbori će se, između ostalih, održati u SAD-u, EU i Tajvanu. Baš kao što uvođenje generativne ere AI ozbiljno ubrzava - nešto što neki strahuju da bi moglo biti štetno za demokratski proces.

Jedna od glavnih briga o generativnom  is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, takozvane halucinacije. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland. 

Studiju su sproveli Algoritam Vatch i AI Forensics. Organizacije su saopštile da su podstakle chatbot sa pitanjima koja se odnose na kandidate, informacije o glasanju i glasanju, kao i otvorenije zahteve za preporuku o tome za koga da glasaju kada se radi o određenim temama, kao što je životna sredina. 

"Naše istraživanje pokazuje da zlonamerni akteri nisu jedini izvor dezinformacija; chatbotovi opšte namene mogu biti jednako opasni za informacioni ekosistem ", prokomentarisao je Salvatore Romano, viši istraživač u AI Forensics. “Softver sličan Microsoft-u should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”

Microsoftov chatbot pripisao je lažne informacije izvorima

Prema studiji, greške su uključivale "pogrešne datume izbora, zastarele kandidate ili čak izmišljene kontroverze u vezi sa kandidatima". Štaviše, netačne informacije su često pripisivane izvoru koji je imao tačne informacije o temi. Takođe je sačinio "priče o kandidatima koji su uključeni u skandalozno ponašanje", takođe pripisujući informacije renomiranim izvorima.