Ako AI chatbot spoločnosti Microsoft halucinuje informácie o voľbách
Budúci rok bude pre demokraciu rušný. Veľké voľby sa budú konať v USA, EÚ a na Tchaj-wane, okrem iného. Práve keď sa rozširovanie generatívnej AI éry vážne rozvíja niečo, čo by sa mohlo ukázať ako škodlivé pre demokratický proces.
Jednou z hlavných obáv voči generatívnym systémomAIje, že môžu byť použité na zlú vôľu na šírenie dezinformácií, alebo že modely môžu vytvárať nepravdivé tvrdenia a predkladať ich ako fakty,tzv. halucinácie. Študia dvoch európskych NGO zistila, že Microsoftový chatbot – Bing AI (bežiaci na OpenAI GPT-4) – dal nesprávne odpovede na tretinu otázok týkajúcich sa volieb v Nemecku a Švajčiarsku.
Štúdiu vykonali organizácie Algorithm Watch a AI Forensics. Povedali, že chatbota dotazovali otázkami týkajúcimi sa kandidátov, dát volieb a informácií o hlasovaní, ako aj viac otvorenými požiadavkami na odporúčania, pre koho hlasovať v súvislosti so špecifickými tématami, ako je životné prostredie.
Náš výskum ukazuje, že škodlivé subjekty nie sú jediným zdrojom dezinformácií; chatboty všeobecného použitia môžu byť rovnako hrozbou pre informačný ekosystém", komentoval salvatore romano, vedúci výskumník AI forensiky.Microsoftby mali uznávať tento problém a pochopiť, že označovanie generatívneho obsahu AI vytvoreného ostatnými nie je dostatočné. Ich nástroje, dokonca aj keď citujú dôveryhodné zdroje, produkujú nesprávne informácie v veľkom rozsahu.”
chatbot Microsoftu pripisuje falošné informácie zdrojom
Podľa štúdie boli chyby: nesprávne termíny volieb, zastarané kandidáty alebo dokonca vymyslené kontroverzie týkajúce sa kandidátov. navyše, nesprávne informácie boli často pripisované zdroju, ktorý mal správne informácie o téme.