Як AI-чатбот від Microsoft "галюцинує" інформацію про вибори
Наступний рік буде напруженим для демократії. Великі вибори відбудуться в США, ЄС і Тайвані, серед інших.
Однією з головних турбот щодо генеративних технологійШІє те, що вони можуть бути використані для зловживання поширенням дезінформації, або те, що моделі можуть створювати хибні твердження, подаючи їх як факти,так звані галюцинації. Дослідження двох європейських НПО виявило, що чат-бот Microsoft — Bing AI (який працює на базі GPT-4 від OpenAI) — давав неправильні відповіді на одну третину питань про вибори в Німеччині та Швейцарії.
Дослідження проводили організації Algorithm Watch та AI Forensics. Вони заявили, що спрямовували чат-бота питаннями, щодо кандидатів, інформації про голосування та рекомендаціями, а також більш відкритими запитами про те, за кого голосувати при турбуванні певними темами, наприклад, середовищем.
Наше дослідження показує, що зловмисні діячі не є єдиним джерелом дезінформації; чат-боти загального призначення можуть бути настільки ж загрозою для інформаційної екосистеми, прокоментував Сальваторе Романо, старший дослідник AI Forensics.Microsoftповинні це визнати, і розуміти, що вказування на генеративний контент ІШ, створений іншими, не є достатнім. Їх інструменти, навіть коли вони опираються на надійні джерела, виробляють хибну інформацію у масштабах."
Чатбот Microsoft приписав хибну інформацію джерелам
Згідно з дослідженням помилки включали неправильні дати виборів, застарілі кандидати або навіть винайдені суперечки щодо кандидатів. Крім того, невірна інформація часто приписувалася джерелу, яке мав правильну інформацію про цю тему. вона також складала старічки про кандидатів, які причетні до сканда