Как AI-чатбот Майкрософт галлюцинирует информацию о выборах
Наступающий год будет очень насыщенным для демократии. Крупные выборы пройдут в США, ЕС и Тайване, среди прочих.
Одной из главных проблем в области генерирующихИИможет быть использована для злонамеренного распространения дезинформации, или модели могут создавать ложные заявления, представляя их как факты,так называемые галлюцинации- Я не знаю. Исследование двух европейских НПО показало, что чатбот Microsoft Bing AI (работающий на OpenAI GPT-4) дал неверные ответы на треть вопросов о выборах в Германии и Швейцарии.
Исследование было проведено Algorithm Watch и AI Forensics. Организации заявили, что запустили чат-бот с вопросами, касающимися кандидатов, опросов и информации о голосовании, а также более открытыми рекомендациями о том, за кого голосовать, когда речь идет о конкретных темах, таких как окружающая среда.
Наше исследование показывает, что злоумышленники не являются единственным источником дезинформации; чат-боты общего назначения могут быть столь же угрозой для информационной экосистемы", - прокомментировал salvatore romano, старший исследователь AI forensics.Microsoftдолжны признать это и признать, что помечать генерирующий ИИ контент, созданный другими, недостаточно. Их инструменты, даже когда они используют надежные источники, производят неверную информацию в масштабе.
Чатбот Microsoft приписал ложную информацию источникам
По данным исследования, ошибки включали в себя: "неправильные даты выборов, устаревшие кандидаты или даже выдуманные споры о кандидатах". Кроме того, неправильная информация часто приписывалась источнику, который имел правильную информацию по теме.