كيف تراه مايكروسوفت معلومات الانتخابات
العام المقبل سيكون عاماً مزدحماً للديمقراطية. ستجري انتخابات كبيرة في الولايات المتحدة والاتحاد الأوروبي وتايوان، من بين أمور أخرى. في الوقت الذي يتزايد فيه سرعة إطلاق عصر الذكاء الاصطناعي الجني بجد، وهو شيء يخشى البعض من أنه قد يضر
واحدة من المخاوف الرئيسية حول توليدأيمكن استخدامها لنشر معلومات خاطئة أو أن النماذج يمكن أن تصنع بيانات كاذبة وتقدمها كحقيقةما يسمى الهلوسةوجدت دراسة أجرتها منظمتان غير حكوميتين أوروبيتين أن برنامج "بينغ آي" من مايكروسوفت (الذي يعمل على نظام "أوبناين" GPT-4) قد أعطى إجابات خاطئة على ثلث الأسئلة المتعلقة بالانتخابات في ألمانيا وسويسرا
أجرت المنظمة الدراسة من قبل "الخبراء الفيدراليين" و"العملية القانونية الذكية". وقالت المنظمات إنها أطلقت على الروبوت عبر الأسئلة المتعلقة بالمرشحين ومعلومات الاستطلاعات والاستفتاءات، فضلاً عن طلبات توصية أكثر
تظهر أبحاثنا أن الجهات الفاعلة الخبيثة ليست المصدر الوحيد للمعلومات الخاطئة؛ يمكن أن تكون روبوتات الدردشة ذات الأغراض العامة تهديدًا للنظام البيئي للمعلومات، قال سالفاتوري رومانو، الباحث الأول في AI Forensics.مايكروسوفتيجب أن تعترف بذلك، وأن تعترف بأن وضع علامة على المحتوى الإبداعي للذكاء الاصطناعي الذي يقدمه الآخرون ليس كافياً. أدواتهم، حتى عندما تتضمن مصادر موثوق بها، تنتج معلومات غير صحيحة على نطاق واسع.
مايكروسوفت chatbot يعزى المعلومات الكاذبة إلى المصادر
ووفقاً للدراسة، تضمنت الأخطاء: "تاريخ انتخابات خاطئ، مرشحين قديمين، أو حتى جدل اختراعي بشأن المرشحين". علاوة على ذلك، غالباً ما كانت المعلومات غير الصحيحة تعزى إلى مصدر لديه المعلومات الصحيحة حول الموضوع. كما قام بتكوين