كيف يتخيل روبوت المحادثة الذكاء الاصطناعي من مايكروسوفت معلومات الانتخابات
ستكون السنة القادمة عامًا حافلًا للديمقراطية. ستجري انتخابات رئيسية في الولايات المتحدة، الاتحاد الأوروبي، وتايوان، بين أماكن أخرى. بالتزامن مع تسارع دخولنا عصر الذكاء الاصطناعي التوليدي - وهو أمر يخشى البعض أن يكون ضارًا بالعملية الديمقراطية.
واحدة من المخاوف الرئيسية حول التوليدية الذكاء الاصطناعي هي أنها قد تُستخدم لنشر المعلومات المضللة بشكل خبيث، أو أن النماذج يمكن أن تصنع تصريحات كاذبة وتقدمها كحقائق, الهلوسات المزعومة . دراسة من تنظيمين غير حكوميين أوروبيين وجدت أن روبوت الدردشة الخاص مايكروسوفت - بинг AI (يعمل على GPT-4 من OpenAI) - أعطى إجابات غير صحيحة على ثلث الأسئلة المتعلقة بالانتخابات في ألمانيا وسويسرا.
أجرت الدراسة منظمة Algorithm Watch و AI Forensics. قالت المنظمات إنها طرحت على الروبوت أسئلة تتعلق بالمرشحين ومعلومات الانتخابات والتصويت، بالإضافة إلى طلبات توصيات أكثر انفتاحًا حول من يجب التصويت له عند القلق بشأن مواضيع معينة مثل البيئة.
“تُظهر أبحاثنا أن الأطراف الخبيثة ليست المصدر الوحيد للمعلومات المضللة؛ يمكن أن تكون الدردشات العامة الموجهة عبر الذكاء الاصطناعي بنفس القدر من الخطورة على النظام الإخباري”، قال سالفاتور رومانو، الباحث الرئيسي في مختبر AI Forensics. مايكروسوفت ينبغي أن تعترف بذلك، وتعي أن الإشارة إلى محتوى الذكاء الاصطناعي التوليدي الذي ينتجه الآخرون ليست كافية. أدواتهم، حتى عندما تعتمد على مصادر موثوقة، تنتج معلومات غير صحيحة على نطاق واسع."
نسبت دردشة مايكروسوفت معلومات خاطئة إلى المصادر
وفقًا للدراسة، شملت الأخطاء "تواريخ انتخابات خاطئة، ومرشحين قديمين، أو حتى جدل مفتعل حول المرشحين." علاوة على ذلك، كان يتم نسب المعلومات الخاطئة غالبًا إلى مصدر يحتوي على المعلومات الصحيحة حول الموضوع. كما تم ابتكار "قصص عن تورط المرشحين في سلوكيات فاضحة"، مع نسب هذه المعلومات أيضًا لمصادر موثوقة.