چگونه چتبوت هوش مصنوعی مایکروسافت اطلاعات انتخاباتی 'تخیلی' ارائه میدهد
سال آینده برای دموکراسی یک سال پر از کار خواهد بود. انتخابات مهمی در ایالات متحده، اتحادیه اروپا و تایوان، بین دیگران، برگزار خواهد شد. همانطور که ورود به دوران هوش مصنوعی تولیدی با جدیت جمع میشود — چیزی که برخی از آن را تهدیدکننده برای فرآیند دموکراتیک میدانند.
یکی از نگرانیهای اصلی دربارهٔ تولیدی هوش مصنوعی این است که ممکن است برای پخش سوءاطلاعات به صورت بدعتآمیز استفاده شود، یا اینکه مدلها بیانات غلط را به عنوان حقیقت ارائه دهند, و هالوسیناسیونهای نامبرده . یک مطالعه از دو سازمان غیردولتی اروپایی کشف کرده است که چتبوت مایکروسافت — هوش مصنوعی بینگ (که بر روی GPT-4 OpenAI اجرا میشود) — به یک سوم از پرسشها دربارهٔ انتخابات آلمان و سوئیس پاسخهای نادرست داد.
این مطالعه توسط Algorithm Watch و AI Forensics انجام شد. این سازمانها گفتند که آنها چتبوت را با پرسشهای مرتبط با نامزدها، اطلاعات رأیگیری و انتخابات، همچنین درخواستهای پیشنهادیتر دربارهٔ اینکه برای کی در حالتی خاص، مانند محیط زیست، رأی بدهید، تحریک کردند.
«تحقیقات ما نشان میدهد که بازیگران بدعتکار منبع تنها جعل اطلاعات نیستند؛ چتبوتهای عمومی نیز میتوانند به اندازه یکسانی برای اکوسیستم اطلاعاتی تهدیدکننده باشند»، Salvatore Romano، محقق ارشد در AI Forensics، نظر داد. « Microsoft باید این موضوع را بهعنوان یک حقیقت بشناسند، و بفهمند که فلگ زدن محتوای هوش مصنوعی تولیدی توسط دیگران کافی نیست. ابزارهای آنها، حتی وقتی از منابع قابل اعتماد استفاده میکنند، اطلاعات نادرست را به صورت گسترده تولید میکنند."
چتبوت مایکروسافت اطلاعات غلط را به منابع نسبت داد
بر اساس مطالعه، خطاهایی شامل «تاریخ انتخابات نادرست، نامزدهای منسوخ شده، یا حتی جدالهای ساختگی مربوط به نامزدها» بود. علاوه بر این، اطلاعات نادرست غالباً به منبعی نسبت داده میشد که اطلاعات درست درباره موضوع را داشت. همچنین، داستانهای ساختگی درباره ورود نامزدها به رفتارهای مشکوک ایجاد کرد و این اطلاعات را نیز به منابع معتبر نسبت داد.