چگونه مایکروسافت AI چت بُت توهم می زند اطلاعات انتخابات
سال آینده برای دموکراسی سالی پر مشغله خواهد بود. انتخابات بزرگ در ایالات متحده، اتحادیه اروپا و تایوان، در میان سایر کشورها برگزار خواهد شد. درست همانطور که گسترش عصر هوش مصنوعی مولد به شدت در حال افزایش است چیزی که برخی می ترسند ممکن است به ضرر روند دموکراتیک باشد.
یکی از نگرانیهای اصلی دربارهٔ تولیدیهوش مصنوعیاین است که ممکن است برای پخش سوءاطلاعات به صورت بدعتآمیز استفاده شود، یا اینکه مدلها بیانات غلط را به عنوان حقیقت ارائه دهند,به اصطلاح توهمات. یک مطالعه از دو سازمان غیردولتی اروپایی کشف کرده است که چتبوت مایکروسافت — هوش مصنوعی بینگ (که بر روی GPT-4 OpenAI اجرا میشود) — به یک سوم از پرسشها دربارهٔ انتخابات آلمان و سوئیس پاسخهای نادرست داد.
این مطالعه توسط Algorithm Watch و AI Forensics انجام شد. این سازمانها گفتند که آنها چتبوت را با پرسشهای مرتبط با نامزدها، اطلاعات رأیگیری و انتخابات، همچنین درخواستهای پیشنهادیتر دربارهٔ اینکه برای کی در حالتی خاص، مانند محیط زیست، رأی بدهید، تحریک کردند.
تحقیقات ما نشان می دهد که بازیگران مخرب تنها منبع اطلاعات غلط نیستند؛ چت باتی های عمومی می توانند به همان اندازه برای اکوسیستم اطلاعات تهدیدی باشند، salvatore romano، محقق ارشد AI forensics اظهار داشت.مایکروسافتباید این موضوع را بهعنوان یک حقیقت بشناسند، و بفهمند که فلگ زدن محتوای هوش مصنوعی تولیدی توسط دیگران کافی نیست. ابزارهای آنها، حتی وقتی از منابع قابل اعتماد استفاده میکنند، اطلاعات نادرست را به صورت گسترده تولید میکنند."
چت باتی مایکروسافت اطلاعات نادرستی را به منابع نسبت داد
بر اساس این مطالعه، اشتباهات شامل تاریخ اشتباه انتخابات، نامزدهای منسوخ شده و حتی بحث های اختراعی در مورد نامزدها بود. علاوه بر این، اطلاعات نادرست اغلب به یک منبع که اطلاعات صحیح در مورد موضوع را داشت، نسبت داده می شد. همچنین داستان هایی در مورد کاندیداها در رفتار های رسوا کننده وجود دارد، همچنین این اطلاعات را