Как чат-бот с искусственным интеллектом от Microsoft «галлюцинирует» информацию о выборах
Наступающий год будет напряженным для демократии. Крупные выборы состоятся, в частности, в США, ЕС и на Тайване. В то время как эра генеративного ИИ набирает обороты, некоторые опасаются, что это может оказаться пагубным для демократического процесса.
Одна из главных опасений по поводу генеративности Искусственный интеллект is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, так называемые галлюцинации. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Исследование проводилось компаниями Algorithm Watch и AI Forensics. Организации заявили, что они задавали чат-боту вопросы, касающиеся кандидатов, информации об опросах и голосовании, а также более открытые запросы рекомендаций о том, за кого голосовать, когда речь идет о конкретных темах, таких как окружающая среда.
«Наше исследование показывает, что злоумышленники — не единственный источник дезинформации; чат-боты общего назначения могут представлять не меньшую угрозу для информационной экосистемы», — прокомментировал Сальваторе Романо, старший научный сотрудник AI Forensics. “Майкрософт should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Чат-бот от Microsoft приписал источникам ложную информацию
Согласно исследованию, ошибки включали в себя «неправильные даты выборов, устаревших кандидатов или даже выдуманные споры о кандидатах». Более того, неверную информацию часто приписывали источнику, который обладал правильной информацией по теме. Она также сочиняла «истории о том, что кандидаты были замешаны в скандальном поведении», а также приписывала информацию авторитетным источникам.