Hur Microsoft s AI chatbot hallucinerar valinformation
Det kommande året kommer att bli ett hektiskt för demokratin. Stora val kommer att äga rum i bland annat USA, EU och Taiwan. Precis som utbyggnaden av generativ AI-eran tar fart på allvar något som vissa fruktar kan visa sig vara skadligt för den demokratiska processen.
En av de huvudsakliga farhågorna om generativAIär att den kan användas för att sprida desinformation på ett skadligt sätt, eller att modeller kan fabricera falska påståenden och presentera dem som fakta,så kallade hallucinationer. En studie från två europeiska icke-statliga organisationer har funnit att Microsofts chattror – Bing AI (som körs på OpenAIs GPT-4) – gav felaktiga svar på en tredjedel av frågorna om val i Tyskland och Schweiz.
Studien utfördes av Algorithm Watch och AI Forensics. Organisationerna sa att de ställde frågor till chattracket om kandidater, val- och röstandningsinformation, samt mer öppna begäranden om rekommendationer på vem man borde rösta på när man är orolig för vissa ämnen, såsom miljön.
Vår forskning visar att skadliga aktörer inte är den enda källan till felaktig information; chatbots för allmänt bruk kan vara lika hotande för informationsekosystemet, kommenterar salvatore romano, seniorforskare vid AI forensics.Microsoftbör erkänna detta, och inse att att flagga generativt AI-innehåll skapat av andra inte är tillräckligt. Deras verktyg, även när de citerar pålitliga källor, producerar felaktig information i storskalor.
Microsofts chatbot tillskriver falsk information till källor
Enligt studien inkluderade fel fel valdatum, föråldrade kandidater eller till och med uppfunna kontroverser om kandidater. Dessutom tillskrivs felaktig information ofta en källa som hade rätt information om ämnet. Det skapade också historier om kandidater som var inblandade i skandalöst beteende,