Як AI-чатбот від Microsoft "галюцинує" інформацію про вибори
Наступний рік буде напруженим для демократії. Великі вибори відбудуться в США, ЄС і Тайвані, серед інших.
один з основних проблем щодо генертивногоаіце те, що вона може бути використана для зловмисної розповсюдження дезінформації, або що моделі можуть створювати хибні заяви, представляючи їх як факти,так звані галюцинаціїДослідження двох європейських НУО показало, що чат-бот Microsoft Bing AI (відправлений на OpenSUSE GPT-4) дав неправильні відповіді на третину питань про вибори в Німеччині та Швейцарії.
Дослідження проводили алгоритм-воч і AI-криміналістика. Організації заявили, що вони запросили чат-бота з питаннями, пов'язаними з кандидатами, інформацією про опитування та голосування, а також більш відкритими рекомендаціями про те, кому голосувати, коли йдеться про конкретні теми, такі як
Наше дослідження показує, що зловмисні діячі не є єдиним джерелом дезінформації; чат-боти загального призначення можуть бути настільки ж загрозою для інформаційної екосистеми, прокоментував Сальваторе Романо, старший дослідник AI Forensics.MicrosoftВони повинні визнати це і визнати, що маркування генерируючого контенту штучного інтелекту, зробленого іншими, недостатньо.
Чатбот Microsoft приписав хибну інформацію джерелам
Згідно з дослідженням помилки включали неправильні дати виборів, застарілі кандидати або навіть винайдені суперечки щодо кандидатів. Крім того, невірна інформація часто приписувалася джерелу, яке мав правильну інформацію про цю тему. вона також складала старічки про кандидатів, які причетні до сканда