Jak si AI chatbot z Microsoftu halucinuje informace o volbách
Příští rok bude pro demokracii velmi rušný. Velké volby se budou konat mimo jiné v USA, EU a na Tchaj-wanu. Právě v době, kdy se rozšiřování generativní AI věku vážně rozrůstá něco, co by se mohlo ukázat jako škodlivé pro demokratický proces.
Jedním z hlavních problémů generativníhoa)je, že by mohla být použita pro škodlivé šíření dezinformací nebo že modely mohou vytvářet falešná tvrzení, která je prezentují jako fakta,tzv. halucinace. studie dvou evropských nevládních organizací zjistila, že chatbot společnosti Microsoft Bing AI (používající OpenStreetMap) odpověděl nesprávně na třetinu otázek o volbách v Německu a Švýcarsku.
Studie byla provedena společností Algorithm Watch a AI Forensics. Organizace uvedly, že chatbotovi poskytly otázky týkající se kandidátů, informací o průzkumech a hlasování a také otevřenější doporučení, pro koho hlasovat, pokud jde o konkrétní témata, jako je životní prostředí.
Náš výzkum ukazuje, že škodliví hráči nejsou jediným zdrojem dezinformací; chatboty s obecným účelem mohou být stejně hrozbou pro informační ekosystém", uvedl salvatore romano, vedoucí výzkumník AI forensiky.MicrosoftV tomto ohledu by se mělo přiznat, že označení generujícího obsahu AI vytvořeného jinými lidmi nestačí.
Microsoftův chatbot přisoudil falešné informace zdrojům
Podle studie chyb zahrnovaly napravé datumy voleb, zastaralé kandidáty nebo dokonce vymyslené kontroverze týkající se kandidátů. Kromě toho byly nesprávné informace často připisovány zdroji, který měl správné informace o tématu.