Ako AI chatbot spoločnosti Microsoft halucinuje informácie o voľbách
Budúci rok bude pre demokraciu rušný. Veľké voľby sa budú konať v USA, EÚ a na Tchaj-wane, okrem iného. Práve keď sa rozširovanie generatívnej AI éry vážne rozvíja niečo, čo by sa mohlo ukázať ako škodlivé pre demokratický proces.
jedna z hlavných obáv o generatívnejajje, že by sa mohla použiť na škodlivé šírenie dezinformácií alebo že modely môžu vytvárať falošné vyhlásenia, ktoré ich predstavujú ako fakt,tzv. halucinácie. štúdia dvoch európskych nevládnych organizácií zistila, že chatbot spoločnosti Microsoft bing ai (používa sa na open-source GPT-4) poskytol nesprávne odpovede na jednu tretinu otázok o voľbách v Nemecku a Švajčiarsku.
Štúdia bola vykonaná spoločnosťou Algorithm Watch a AI Forensics. Organizácie uviedli, že chatbota vyzvali s otázkami týkajúcimi sa kandidátov, informácií o hlasovaní a hlasovaní, ako aj s otvorenými požiadavkami na odporúčania, koho voliť, keď sa týkajú konkrétnych tém, ako je životné prostredie.
Náš výskum ukazuje, že škodlivé subjekty nie sú jediným zdrojom dezinformácií; chatboty všeobecného použitia môžu byť rovnako hrozbou pre informačný ekosystém", komentoval salvatore romano, vedúci výskumník AI forensiky.MicrosoftV tomto prípade by mali byť tieto nástroje, aj keď zahŕňajú dôveryhodné zdroje, v rozsahu produkovať nesprávne informácie.
chatbot Microsoftu pripisuje falošné informácie zdrojom
Podľa štúdie boli chyby: nesprávne termíny volieb, zastarané kandidáty alebo dokonca vymyslené kontroverzie týkajúce sa kandidátov. navyše, nesprávne informácie boli často pripisované zdroju, ktorý mal správne informácie o téme.