Как чатботът с ИИ на Microsoft „халюцинира“ информация за изборите
Следващата година ще бъде заета за демокрацията. Ще се проведат главни избори в САЩ, ЕС и Тайван, сред другите. Правно когато стартирането на ерата на генеративното умело интелигентно създаване набира темпо - нещо, което някои опасяват, че може да бъде вредно за демократичния процес.
Една от главните загрижения относно генеративните модели ИИ е, че те могат да бъдат използвани за злонамерно разпространяване на дезинформация или че моделите могат да създават лъжливи твърдения, представяйки ги като факт, така наречени халюцинации . Изследване на две европейски НПО установи, че чатбота на Microsoft — Bing AI (работещ на OpenAI GPT-4) — даваше грешни отговори на третината от въпросите за изборите в Германия и Швейцария.
Изследването беше проведено от Algorithm Watch и AI Forensics. Организациите казаха, че задаваха на чатбота въпроси, свързани с кандидатствалици, изборни данни и информация за гласуване, както и по-широки препоръки за кого да гласуват при определени теми, като околната среда.
„Нашите проучвания показват, че злонамерени лица не са единственият източник на дезинформация; общи цели чатботове могат да са точно толкова заплашителни за информационната екосистема“, коментира Салваторе Романо, старши научник в AI Forensics. „ Microsoft трябва да признаят това и да разберат, че маркирането на съдържанието, създадено от генеративен ИИ от други, не е достатъчно. Инструментите им, дори когато цитират достоверни източници, произвеждат грешна информация в големи мащаби.”
Чатботовът на Microsoft приписа лъжива информация на iztoчници
Според изследването, грешките включваха „грешни дати на изборите, остатени кандидати или дори измислени скандали, свързани с кандидатите.” Повече от това, грешната информация често беше приписана на източник, който имаше правилната информация по темата. Тя също така съставяше „истории за кандидати, увличани в скандално поведение,” като пак приписваше информацията на уважаеми източници.