Как AI чатботът на Microsoft "халюцинира" информация за изборите
Предстоящата година ще бъде натоварена за демокрацията. Големи избори ще се проведат в САЩ, ЕС и Тайван, наред с други. Точно когато ерата на генеративния изкуствен интелект набира скорост - нещо, което някои се опасяват, че може да се окаже пагубно за демократичния процес.
Едно от основните притеснения относно генеративните ИИ is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, Така наречените халюцинации. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Проучването е проведено от Algorithm Watch и AI Forensics. Организациите заявиха, че са подтикнали чатбота с въпроси, свързани с кандидати, информация за гласуване и гласуване, както и по-отворени искания за препоръки за кого да гласуват, когато са свързани с конкретни теми, като околната среда.
"Нашето изследване показва, че злонамерените участници не са единственият източник на дезинформация; чатботовете с общо предназначение могат да бъдат също толкова застрашителни за информационната екосистема", коментира Салваторе Романо, старши изследовател в AI Forensics. “Майкрософт should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Чатботът на Microsoft приписва невярна информация на източници
Според проучването грешките включват "грешни дати на избори, остарели кандидати или дори измислени противоречия относно кандидатите". Освен това неправилната информация често се приписва на източник, който има правилната информация по темата. Той също така измисли "истории за кандидати, замесени в скандално поведение", като също приписва информацията на уважавани източници.