แชทบอท AI ของ Microsoft 'ประสาทหลอน' ข้อมูลการเลือกตั้งอย่างไร
ปีที่จะมาถึงจะเป็นปีที่วุ่นวายสําหรับประชาธิปไตย การเลือกตั้งครั้งใหญ่จะเกิดขึ้นในสหรัฐอเมริกา สหภาพยุโรป และไต้หวัน เป็นต้น เช่นเดียวกับการเปิดตัวยุค Generative AI กําลังเร่งตัวอย่างจริงจัง ซึ่งเป็นสิ่งที่บางคนกลัวอาจพิสูจน์ได้ว่าเป็นอันตรายต่อกระบวนการประชาธิปไตย
หนึ่งในข้อกังวลหลักเกี่ยวกับกําเนิด เอไอ is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, สิ่งที่เรียกว่าภาพหลอน. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
การศึกษานี้ดําเนินการโดย Algorithm Watch และ AI Forensics องค์กรกล่าวว่าพวกเขาแจ้งให้แชทบอทถามคําถามเกี่ยวกับผู้สมัคร ข้อมูลการสํารวจความคิดเห็นและการลงคะแนน ตลอดจนคําขอคําแนะนําที่เปิดกว้างมากขึ้นว่าจะลงคะแนนให้ใครเมื่อเกี่ยวข้องกับเรื่องเฉพาะ เช่น สิ่งแวดล้อม
"การวิจัยของเราแสดงให้เห็นว่าผู้ประสงค์ร้ายไม่ใช่แหล่งที่มาของข้อมูลที่ผิดเพียงอย่างเดียว แชทบอทเอนกประสงค์อาจเป็นภัยคุกคามต่อระบบนิเวศของข้อมูลได้" Salvatore Romano นักวิจัยอาวุโสของ AI Forensics ให้ความเห็น “ไมโครซอฟท์ should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
แชทบอทของ Microsoft ระบุว่าข้อมูลเท็จมาจากแหล่งที่มา
จากการศึกษาข้อผิดพลาดรวมถึง "วันเลือกตั้งที่ไม่ถูกต้องผู้สมัครที่ล้าสมัยหรือแม้แต่การโต้เถียงเกี่ยวกับผู้สมัคร" ยิ่งไปกว่านั้นข้อมูลที่ไม่ถูกต้องมักเกิดจากแหล่งที่มาที่มีข้อมูลที่ถูกต้องในหัวข้อนั้น นอกจากนี้ยังสร้าง "เรื่องราวเกี่ยวกับผู้สมัครที่มีส่วนเกี่ยวข้องกับพฤติกรรมอื้อฉาว" และระบุแหล่งที่มาของข้อมูลที่มีชื่อเสียง