Korleis Microsoft AI chatbot hallucinerer valinformasjon
Det neste året blir eit travlt år for demokratiet. Større val kjem til å skje i USA, EU og Taiwan, blant anna.
ei av dei største bekymringane om generativeeier at dei kan brukast for å spreia dei vonde opplysingane, eller at modellane kan tenna på falske utsagn som vert framført som fakta,såkalla hallusinasjonarEin studie frå to europeiske NGO viser at Microsoft sin chatbot bing ai (å arbeide på openSUSE gpt-4) gav feil svar på ein tredel av spurnadene om val i Tyskland og Sveits.
Studie blei utført av algoritmwatch og AI forensics. organisasjonane sa at dei spurte chatboten med spørsmål om kandidatar, meningsmålingar og valinformasjon, og dessutan med meir opne anbefalingar om kven dei skulle røysta for når det gjaldt bestemte emne, som miljø.
Våre forsking viser at skadelege aktørar ikkje er den einaste kjelda til misnøye; chatbotar med generell bruk kan vera like truande for informasjonsøkosystemet, sa salvatore romano, seniorforsker ved AI forensics.microsoftDei bør anerkjennast dette, og erkjennast at det ikkje er nok å merkje generativt AI-innhold laga av andre.
Microsoft s chatbot tilskrev falske informasjon til kjelder
I følge studien inkluderte feil feile valdatum, utdaterte kandidatar eller til og med oppfunne kontroversar om kandidatar. Dessutan blei feil informasjon ofte tilskriven ei kjelde som hadde rett informasjon om temaet.