Hogyan hallucinálja a Microsoft s AI chatbot választási információkat
A következő év nagy kihívás lesz a demokráciának. Az Egyesült Államokban, az Európai Unióban és Tajvanban is lesznek nagy választások.
Az egyik fő aggály a generatív technológiák kapcsánAIaz, hogy felhasználhatók lennének hamis információk bántozó terjesztésére, vagy arra, hogy a modellök halsegítésre alkalmas hamis állításokat tesznek, amiket tényként mutatnak be,Az úgynevezett hallucinációk. Két európai civilszervezet tanulmánya szerint a Microsoft chatbota – a Bing AI-t (amely az OpenAI GPT-4 motorral működik) – harmad része helytelen választ adott a németországi és svájci választásokról szóló kérdésekre.
A tanulmányt az Algorithm Watch és az AI Forensics végzi el. A szervezetek azt mondják, hogy a chatbotot választójelöltekkel, szavazási és választási információkkal kapcsolatos kérdésekkel, valamint nyitottabb ajánlás-kérésekkel tesztelték, például arról, kinek kellene szavazni bizonyos témák, mint például a környezetvédelem tekintetében.
A kutatásunk azt mutatja, hogy a rosszindulatú szereplők nem az egyetlen forrása a félreértéseknek; az általános célú chatbotok ugyanolyan veszélyt jelenthetnek az információs ökoszisztémára, mondta salvatore romano, az AI forensikának vezető kutatója.Microsoftezt el kell ismerni, és fel kell ismerni, hogy mások által készített generatív mesterséges intelligencia tartalmak jelölésével nem elég. Az eszközeik, akár megbízható forrásokra is hivatkozva, nagymértékben hibás információkat termelnek.”
A Microsoft chatbotja hamis információt tulajdonított forrásoknak.
A tanulmány szerint a hibák közé tartoztak a "rossz választási dátumok, elavult jelöltek, vagy akár a jelöltekre vonatkozó talált viták". Ezenkívül a helytelen információkat gyakran olyan forrásnak tulajdonították, amelyiknek a témával kapcsolatban helyes információja volt.