Jak chatbot AI firmy Microsoft "halucynuje" informacje o wyborach
Nadchodzący rok będzie pracowity dla demokracji. Ważne wybory odbędą się m.in. w USA, UE i na Tajwanie. W tym samym czasie, gdy wdrażanie generatywnej sztucznej inteligencji nabiera tempa na dobre – coś, czego niektórzy obawiają się, może okazać się szkodliwe dla procesu demokratycznego.
Jedną z głównych obaw związanych z generatywnymi AI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, tak zwane halucynacje. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Badanie zostało przeprowadzone przez Algorithm Watch i AI Forensics. Organizacje poinformowały, że skontaktowały chatbota z pytaniami dotyczącymi kandydatów, sondażami i informacjami o głosowaniu, a także bardziej otwartymi prośbami o rekomendacje dotyczące tego, na kogo głosować, jeśli chodzi o konkretne tematy, takie jak środowisko.
"Nasze badania pokazują, że złośliwi aktorzy nie są jedynym źródłem dezinformacji; Chatboty ogólnego przeznaczenia mogą być równie groźne dla ekosystemu informacyjnego" – skomentował Salvatore Romano, starszy badacz w AI Forensics. “Firmy Microsoft should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Chatbot Microsoftu przypisał fałszywe informacje źródłom
Według badania błędy obejmowały "błędne daty wyborów, nieaktualnych kandydatów, a nawet wymyślone kontrowersje dotyczące kandydatów". Co więcej, błędne informacje były często przypisywane źródłu, które miało prawidłowe informacje na ten temat. Wymyślił również "historie o kandydatach zamieszanych w skandaliczne zachowanie", przypisując również informacje renomowanym źródłom.