všetky kategórie
banner

prípady výkonnosti

Domovská stránka > prípady výkonnosti

späť

Ako AI chatbot spoločnosti Microsoft halucinuje informácie o voľbách

Ako AI chatbot spoločnosti Microsoft halucinuje informácie o voľbách

Budúci rok bude pre demokraciu rušný. Veľké voľby sa budú konať v USA, EÚ a na Tchaj-wane, okrem iného. Práve keď sa rozširovanie generatívnej AI éry vážne rozvíja niečo, čo by sa mohlo ukázať ako škodlivé pre demokratický proces.

jedna z hlavných obáv o generatívnejajje, že by sa mohla použiť na škodlivé šírenie dezinformácií alebo že modely môžu vytvárať falošné vyhlásenia, ktoré ich predstavujú ako fakt,tzv. halucinácie. štúdia dvoch európskych nevládnych organizácií zistila, že chatbot spoločnosti Microsoft bing ai (používa sa na open-source GPT-4) poskytol nesprávne odpovede na jednu tretinu otázok o voľbách v Nemecku a Švajčiarsku.

Štúdia bola vykonaná spoločnosťou Algorithm Watch a AI Forensics. Organizácie uviedli, že chatbota vyzvali s otázkami týkajúcimi sa kandidátov, informácií o hlasovaní a hlasovaní, ako aj s otvorenými požiadavkami na odporúčania, koho voliť, keď sa týkajú konkrétnych tém, ako je životné prostredie.

Náš výskum ukazuje, že škodlivé subjekty nie sú jediným zdrojom dezinformácií; chatboty všeobecného použitia môžu byť rovnako hrozbou pre informačný ekosystém", komentoval salvatore romano, vedúci výskumník AI forensiky.MicrosoftV tomto prípade by mali byť tieto nástroje, aj keď zahŕňajú dôveryhodné zdroje, v rozsahu produkovať nesprávne informácie.

chatbot Microsoftu pripisuje falošné informácie zdrojom

Podľa štúdie boli chyby: nesprávne termíny volieb, zastarané kandidáty alebo dokonca vymyslené kontroverzie týkajúce sa kandidátov. navyše, nesprávne informácie boli často pripisované zdroju, ktorý mal správne informácie o téme.


pred None As meteorický vzostup: vpredu sú nekonečné príležitosti, ale kľúčom je ich realizácia Ďalší As meteorický vzostup: vpredu sú nekonečné príležitosti, ale kľúčom je ich realizácia

Related Search