Wie Microsoft s AI Chatbot Halluziniert Wahlinformationen
Das kommende Jahr wird für die Demokratie ein anstrengendes sein. In den USA, der EU und Taiwan werden unter anderem große Wahlen stattfinden. Genau wie die Einführung der generativen KI-Ära ernsthaft an Tempo gewinnt etwas, von dem einige befürchten, dass es sich als schädlich für den demokratischen Prozess erweisen könnte
Eine der Hauptbedenken bei generativer KIKIist, dass sie zur böswilligen Verbreitung von Desinformation verwendet werden könnte oder dass Modelle falsche Aussagen als Fakten darstellen,sogenannte Halluzinationen. Eine Studie von zwei europäischen NGOs hat ergeben, dass Microsofts Chatbot – Bing AI (auf OpenAIs GPT-4 basierend) – auf ein Drittel der Fragen zu Wahlen in Deutschland und der Schweiz falsch geantwortet hat.
Die Studie wurde von Algorithm Watch und AI Forensics durchgeführt. Die Organisationen sagten, sie hätten den Chatbot mit Fragen zu Kandidaten, Wahlterminen und Wahlinformationen sowie offeneren Empfehlungsanfragen bezüglich der Wahlentscheidung bei bestimmten Themen wie der Umwelt konfrontiert.
Unsere Forschung zeigt, dass böswillige Akteure nicht die einzige Quelle von Fehlinformationen sind; Allzweck-Chatbots können für das Informationsökosystem genauso gefährlich sein", kommentierte salvatore romano, leitender Forscher bei AI Forensics.Microsoftsollte dies anerkennen und begreifen, dass das Kennzeichnen von generativem KI-Inhalt anderer nicht ausreicht. Ihre Tools produzieren, selbst wenn vertrauenswürdige Quellen genannt werden, falsche Informationen in großem Maßstab."
Microsoft hat falsche Informationen an Quellen zugeschrieben.
Die Ergebnisse der Studie zeigten, dass die Fehler falsche Wahltermine, veraltete Kandidaten oder sogar erfundene Kontroversen über Kandidaten waren. Außerdem wurden die falschen Informationen oft einer Quelle zugeschrieben, die die richtigen Informationen zu diesem Thema hatte.