Hur Microsoft s AI chatbot hallucinerar valinformation
Det kommande året kommer att bli ett hektiskt för demokratin. Stora val kommer att äga rum i bland annat USA, EU och Taiwan. Precis som utbyggnaden av generativ AI-eran tar fart på allvar något som vissa fruktar kan visa sig vara skadligt för den demokratiska processen.
En av de viktigaste oroligheterna med generativaavDet är inte möjligt att använda den för att sprida desinformation med onda syften eller att modeller kan göra falska uttalanden som presenteras som fakta.så kallade hallucinationer. en studie från två europeiska icke-statliga organisationer har funnit att Microsofts chatbot bing ai (som körs på OpenStreetMap 4) gav felaktiga svar på en tredjedel av frågorna om val i Tyskland och Schweiz.
Forskningen genomfördes av algoritmwatch och AI forensics. Organisationerna sa att de uppmanade chatboten med frågor om kandidater, opinionsundersökningar och röstningsinformation, samt mer öppna rekommendationsförfrågningar om vem man ska rösta på när det gäller specifika ämnen, till exempel miljö.
Vår forskning visar att skadliga aktörer inte är den enda källan till felaktig information; chatbots för allmänt bruk kan vara lika hotande för informationsekosystemet, kommenterar salvatore romano, seniorforskare vid AI forensics.MicrosoftDet är viktigt att man inser detta och att det inte räcker med att flagga generativt AI-innehåll som gjorts av andra.
Microsofts chatbot tillskriver falsk information till källor
Enligt studien inkluderade fel fel valdatum, föråldrade kandidater eller till och med uppfunna kontroverser om kandidater. Dessutom tillskrivs felaktig information ofta en källa som hade rätt information om ämnet. Det skapade också historier om kandidater som var inblandade i skandalöst beteende,