Hvordan Microsoft's AI chatbot hallucinerer valgoplysninger
Det kommende år vil være et travlt for demokratiet. Der vil blandt andet finde store valg sted i USA, EU og Taiwan. På samme tid som udrulningen af generative AI-æraen tager fart på alvor noget, som nogle frygter kan vise sig skadeligt for den demokratiske proces.
Det er en af de vigtigste bekymringer om generativeafer, at det kan bruges til ondsindet spredning af desinformation, eller at modeller kan udarbejde falske udsagn, der præsenterer dem som fakta,såkaldte hallucinationer. en undersøgelse fra to europæiske NGO'er har vist, at Microsofts chatbot bing ai (drev på OpenStreetMap's gpt-4) gav forkerte svar på en tredjedel af spørgsmålene om valg i Tyskland og Schweiz.
Undersøgelsen blev udført af algoritmwatch og AI forensics. Organisationerne sagde, at de opfordrede chatboten med spørgsmål vedrørende kandidater, meningsmåling og stemmeoplysninger samt mere åbne anbefalingsanmodninger om, hvem man skal stemme på, når det drejer sig om specifikke emner, såsom miljøet.
vores forskning viser, at ondsindede aktører ikke er den eneste kilde til fejlinformation; chatbots med almindelig anvendelse kan være lige så truende for informationsøkosystemet, kommenterede salvatore romano, seniorforsker ved AI forensics.MicrosoftDet er vigtigt, at de fleste af de forskellige typer af AI-indhold, der er lavet af andre, anerkender dette og erkender, at det ikke er nok at markere det generative AI-indhold, som andre har lavet.
Microsofts chatbot har givet falske oplysninger til kilder
Ifølge undersøgelsen omfattede fejl forkerte valgdatoer, forældede kandidater eller endda opfundne kontroverser vedrørende kandidater. Desuden blev de ukorrekte oplysninger ofte tilskrevet en kilde, der havde de korrekte oplysninger om emnet. Det opfandt også historier om kandidater, der var involveret i skandal