MicrosoftのAIチャットボットが選挙情報を「幻覚見る」方法
来年は民主主義にとって忙しい年になるでしょう。主要な選挙は、とりわけ米国、EU、台湾で行われます。ジェネレーティブAI時代の展開が本格的に加速しているまさにその一方で、民主的なプロセスに悪影響を及ぼすのではないかという懸念もあります。
ジェネレーティブ に関する主な懸念事項の1つ人工知能 is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, いわゆる幻覚. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
この調査は、Algorithm WatchとAI Forensicsによって実施されました。これらの団体は、候補者、世論調査、投票情報に関する質問や、環境などの特定のテーマに関心のある場合に誰に投票するかについてのよりオープンな推奨要求をチャットボットに促したと述べました。
「私たちの調査によると、悪意のあるアクターだけが誤情報の情報源ではありません。汎用チャットボットは、情報エコシステムにとって脅威となる可能性があります」と、AI ForensicsのシニアリサーチャーであるSalvatore Romano氏はコメントしています。“マイクロソフト should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Microsoftのチャットボットは、情報源に虚偽の情報をもたらしました
調査によると、誤りには「選挙日が間違っている、候補者が古い、あるいは候補者に関する論争がでっち上げられた」などが含まれていた。さらに、誤った情報は、トピックに関する正しい情報を持っている情報源に起因していることがよくありました。また、「候補者がスキャンダラスな行動に関与しているという話」もでっち上げ、その情報を信頼できる情報源に帰している。