Jak Microsoft s AI chatbot halucynuje informacje wyborcze
Nadchodzący rok będzie dla demokracji bardzo intensywny. W Stanach Zjednoczonych, UE i na Tajwanie odbędą się głosowania. W tym samym czasie, gdy rozwój generacyjnej AI nabiera tempa coś, czego niektórzy obawiają się, że może być szkodliwe dla procesu demokratycznego.
Jednym z głównych problemów związanych z produkcją AI że może być wykorzystana do szkodliwego rozpowszechniania dezinformacji lub że modele mogą tworzyć fałszywe oświadczenia przedstawiające je jako fakty, tzw. halucynacje - Nie. Badanie przeprowadzone przez dwie europejskie organizacje pozarządowe wykazało, że chatbot firmy Microsoft Bing AI (w oparciu o OpenAI GPT-4) udzielił nieprawidłowych odpowiedzi na jedną trzecią pytań dotyczących wyborów w Niemczech i Szwajcarii.
Badanie przeprowadzono przez Algorithm Watch i AI Forensics. Organizacje twierdzą, że uruchomiły chatbot z pytaniami dotyczącymi kandydatów, informacji o sondażach i głosowaniu, a także bardziej otwartymi prośbami o rekomendacje, na kogo głosować, jeśli chodzi o konkretne tematy, takie jak środowisko.
Nasze badania pokazują, że złośliwi podmioty nie są jedynym źródłem dezinformacji; ogólno-celowe chatboty mogą być równie groźne dla ekosystemu informacji, skomentował salvatore romano, starszy badacz AI forensyki. Microsoft Powinniśmy to uznać i uznać, że nie wystarczy zaznaczyć generowanej przez innych treści sztucznej inteligencji. Ich narzędzia, nawet jeśli zawierają wiarygodne źródła, produkują niepoprawne informacje na dużą skalę.
Microsoft's chatbot przypisał fałszywe informacje źródłom
Według badań błędy obejmowały niewłaściwe daty wyborów, przestarzałe kandydatów, a nawet wymyślone kontrowersje dotyczące kandydatów. ponadto, niepoprawne informacje były często przypisywane źródłu, które miało poprawne informacje na temat tematu.