Microsoft'un yapay zeka chatbotunun seçim bilgilerini nasıl halüsinasyon yaptığını
Önümüzdeki yıl demokrasi için yoğun bir yıl olacak. Diğer ülkeler arasında ABD, AB ve Tayvan'da büyük seçimler olacak. Tıpkı üretken yapay zeka çağının hızla hızlanmasıyla birlikte bazılarının korkusunun demokratik sürece zarar verebileceği bir şey.
Üretimsel ile ilgili en önemli endişelerden biriAiYanlış bilgiyi kötü niyetli bir şekilde yaymak için kullanılabileceği veya modellerin onları gerçek olarak sunarak yanlış ifadeler uydurabileceği,Halüsinasyonlar denilen- Hayır. İki Avrupa STK'sının yaptığı bir çalışmada, Microsoft'un Bing AI (OpenAI'nin GPT-4) üzerinde çalışan) chatbotunun Almanya ve İsviçre'deki seçimlerle ilgili soruların üçte birine yanlış cevap verdiği ortaya çıktı.
Araştırma Algorithm Watch ve AI Forensics tarafından yapıldı. Kuruluşlar, chatbot'u adaylarla ilgili sorular, anket ve oylama bilgileri ile birlikte, çevre gibi belirli konularla ilgili olduğunda kimin oy vereceği konusunda daha açık tavsiye istekleriyle teşvik ettiklerini söyledi.
Araştırmamız, kötü niyetli aktörlerin yanlış bilginin tek kaynağı olmadığını gösteriyor; genel amaçlı sohbet botları bilgi ekosistemine aynı derecede tehdit oluşturabilir", diyor ai forensik'te kıdemli araştırmacı olan salvatore romano.MicrosoftBunu kabul etmeli ve başkaları tarafından oluşturulan yapay yapay zeka içeriğini işaretlemenin yeterli olmadığını kabul etmeli. Onların araçları, güvenilir kaynakları dahil ettiklerinde bile, büyük ölçekte yanlış bilgi üretir.
Microsoft'un chatbot'u kaynaklara yanlış bilgi verdi.
Araştırma hatalarına göre, yanlış seçim tarihleri, modası geçmiş adaylar, hatta adaylarla ilgili uydurma tartışmalar dahil. Dahası, yanlış bilgiler genellikle konuyla ilgili doğru bilgilere sahip bir kaynağa atfedildi. Ayrıca adayların skandal niteliğindeki davranışlarda yer aldığı hikayeleri uydurdu, ayrıca bilgil