選挙情報について 幻覚を覚える
民主主義にとって来年は忙しい年になります. アメリカ,EU,台湾などで大きな選挙が行われます. 生産的なAIの時代が 急速に進んでいる今, 民主主義プロセスに 害をもたらす恐れがある.
生産性に関する主な懸念の一つバイ偽情報を悪意ある形で広めるために利用できるか モデルが偽りの事実を提示する 偽りの主張を 作り出すことができるか幻覚と呼ばれるものヨーロッパのNGO2社の調査によると,Microsoftのチャットボット"Bing ai" (OpenBinds gpt-4) で動作する) は,ドイツとスイスの選挙に関する質問の3分の1に誤った回答を出した.
この調査は アルゴリズムウォッチとAIフォレンスクスによって行われました. 組織は,チャットボットに候補者,投票情報,投票情報に関する質問,環境などの特定のテーマに関与する際の投票者に対するよりオープンな推奨要求を提示しました.
我々の調査は,悪意のあるアクターが誤った情報の唯一の源ではないことを示しています. 一般的なチャットボットは情報生態系に同様に脅威をもたらす可能性があります.マイクロソフト信頼性の高い情報源を巻き込んでいる場合でも,大規模な誤った情報を生み出します.
マイクロソフトのチャットボットが 誤った情報源を 提供した
誤った情報は,しばしばその話題に関する正しい情報を持つ情報源に帰属した. また,候補者がスキャンダル行為に関与していることについて,話を作り出した.