چگونه چت بات هوش مصنوعی مایکروسافت اطلاعات انتخابات را "توهم" می کند
سال آینده سال شلوغی برای دموکراسی خواهد بود. انتخابات بزرگ در ایالات متحده، اتحادیه اروپا و تایوان برگزار خواهد شد. درست همانطور که راه اندازی عصر هوش مصنوعی مولد به طور جدی در حال افزایش است - چیزی که برخی می ترسند می تواند برای روند دموکراتیک مضر باشد.
یکی از نگرانی های اصلی در مورد مولد Ai is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, به اصطلاح توهم. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
این مطالعه توسط Algorithm Watch و AI Forensics انجام شده است. این سازمان ها گفتند که چت بات را با سؤالات مربوط به نامزدها، اطلاعات نظرسنجی و رای گیری و همچنین درخواست های توصیه بازتر در مورد اینکه در صورت نگرانی با موضوعات خاص، مانند محیط زیست، به چه کسی رای دهد، ترغیب کردند.
تحقیقات ما نشان می دهد که عوامل مخرب تنها منبع اطلاعات نادرست نیستند. چت بات های همه منظوره می توانند به همان اندازه برای اکوسیستم اطلاعات تهدید کننده باشند.» سالواتوره رومانو، محقق ارشد در AI Forensics. “مایکروسافت should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
چت بات مایکروسافت اطلاعات نادرست را به منابع نسبت داد
بر اساس این مطالعه، اشتباهات شامل «تاریخ های اشتباه انتخابات، نامزدهای قدیمی یا حتی جنجال های ساختگی در مورد نامزدها» بود. علاوه بر این، اطلاعات نادرست اغلب به منبعی نسبت داده می شد که اطلاعات درستی در مورد موضوع داشت. همچنین "داستان هایی در مورد نامزدهایی که در رفتارهای رسوایی دخیل هستند" ساخته شده است، همچنین این اطلاعات را به منابع معتبر نسبت می دهد.