Jak Microsoft s AI chatbot halucynuje informacje wyborcze
Nadchodzący rok będzie dla demokracji bardzo intensywny. W Stanach Zjednoczonych, UE i na Tajwanie odbędą się głosowania. W tym samym czasie, gdy rozwój generacyjnej AI nabiera tempa coś, czego niektórzy obawiają się, że może być szkodliwe dla procesu demokratycznego.
W tym celu należya)że może być wykorzystana do szkodliwego rozpowszechniania dezinformacji lub że modele mogą tworzyć fałszywe oświadczenia przedstawiające je jako fakty,tzw. halucynacjeBadanie przeprowadzone przez dwie europejskie organizacje pozarządowe wykazało, że chatbot firmy Microsoft Bing AI (w oparciu o OpenSUSE GPT-4) udzielił nieprawidłowych odpowiedzi na jedną trzecią pytań dotyczących wyborów w Niemczech i Szwajcarii.
Badanie zostało przeprowadzone przez Algorithm Watch i AI Forensics. Organizacje twierdzą, że zachęcały chatbot do zadawania pytań dotyczących kandydatów, informacji o sondażach i głosowaniu, a także bardziej otwartych zaleceń dotyczących tego, na kogo głosować, jeśli chodzi o konkretne tematy
Nasze badania pokazują, że złośliwi podmioty nie są jedynym źródłem dezinformacji; ogólno-celowe chatboty mogą być równie groźne dla ekosystemu informacji, skomentował salvatore romano, starszy badacz AI forensyki.MicrosoftW tym celu należy podjąć decyzję o wprowadzeniu nowych technologii, które będą w stanie zapewnić bezpieczeństwo użytkowników.
Microsoft's chatbot przypisał fałszywe informacje źródłom
Według badań błędy obejmowały niewłaściwe daty wyborów, przestarzałe kandydatów, a nawet wymyślone kontrowersje dotyczące kandydatów. ponadto, niepoprawne informacje były często przypisywane źródłu, które miało poprawne informacje na temat tematu.