Bagaimana chatbot AI Microsoft 'berhalusinasi' maklumat pilihan raya
Tahun yang akan datang akan menjadi tahun yang sibuk untuk demokrasi. Pilihan raya utama akan berlangsung di AS, EU, dan Taiwan, antara lain. Sama seperti pelancaran era AI generatif semakin meningkat dengan sungguh-sungguh — sesuatu yang ditakuti sesetengah orang boleh terbukti memudaratkan proses demokrasi.
Salah satu kebimbangan utama mengenai generatif AI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, apa yang dipanggil halusinasi. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Kajian itu dijalankan oleh Algorithm Watch dan AI Forensics. Organisasi itu berkata mereka menggesa chatbot dengan soalan yang berkaitan dengan calon, maklumat pengundian dan pengundian, serta permintaan cadangan yang lebih terbuka tentang siapa yang perlu diundi apabila berkaitan dengan subjek tertentu, seperti alam sekitar.
"Penyelidikan kami menunjukkan bahawa pelakon berniat jahat bukan satu-satunya sumber maklumat salah; chatbot tujuan umum boleh mengancam ekosistem maklumat," ulas Salvatore Romano, Penyelidik Kanan di Forensik AI. “Microsoft should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Chatbot Microsoft mengaitkan maklumat palsu kepada sumber
Menurut kajian itu, kesilapan termasuk "tarikh pilihan raya yang salah, calon yang ketinggalan zaman, atau kontroversi yang dicipta mengenai calon." Lebih-lebih lagi, maklumat yang salah sering dikaitkan dengan sumber yang mempunyai maklumat yang betul mengenai topik tersebut. Ia juga mengarang "cerita tentang calon yang terlibat dalam tingkah laku skandal," juga mengaitkan maklumat itu kepada sumber yang bereputasi.