Як чат-бот ІШ Microsoft «галюїнує» інформацію про вибори
Наступний рік буде напруженим для демократії. Головні вибори пройдуть у США, ЄС та Тайвані, серед інших. Саме коли розгортання ери генеративного штучного інтелекту набирає швидкості — щось, що деякі бояться, що може бути шкідливим для демократичного процесу.
Однією з головних турбот щодо генеративних технологій ШІ є те, що вони можуть бути використані для зловживання поширенням дезінформації, або те, що моделі можуть створювати хибні твердження, подаючи їх як факти, так звані галюцинації . Дослідження двох європейських НПО виявило, що чат-бот Microsoft — Bing AI (який працює на базі GPT-4 від OpenAI) — давав неправильні відповіді на одну третину питань про вибори в Німеччині та Швейцарії.
Дослідження проводили організації Algorithm Watch та AI Forensics. Вони заявили, що спрямовували чат-бота питаннями, щодо кандидатів, інформації про голосування та рекомендаціями, а також більш відкритими запитами про те, за кого голосувати при турбуванні певними темами, наприклад, середовищем.
«Наші дослідження показують, що недобросовісні учасники не єдиний джерелом фейкової інформації; загальнотипові чатботи також можуть бути стільки ж загрозними для інформаційної екосистеми», – прокоментував Сальваторе Романо, старший дослідник в лабораторії AI Forensics. « Microsoft повинні це визнати, і розуміти, що вказування на генеративний контент ІШ, створений іншими, не є достатнім. Їх інструменти, навіть коли вони опираються на надійні джерела, виробляють хибну інформацію у масштабах."
чатбот Microsoft приписував хибну інформацію джерелам
За даними дослідження, помилки включали «неправильні дати виборів, застарілих кандидатів або навіть вигадані конфлікти, щодо кандидатів». Крім того, неточна інформація часто приписувалась джерелу, яке має правильну інформацію з цього питання. Також вона створювала «історії про те, що кандидати були причетні до скандального поведінку», також приписуючи цю інформацію солідним джерелам.