Microsoft'un yapay zeka sohbet botu seçim bilgilerini nasıl 'halüsinasyon' görüyor?
Önümüzdeki yıl demokrasi için yoğun bir yıl olacak. Diğerlerinin yanı sıra ABD, AB ve Tayvan'da büyük seçimler yapılacak. Tıpkı üretken yapay zeka çağının piyasaya sürülmesinin ciddi bir şekilde hız kazanması gibi - bazılarının korktuğu bir şey demokratik sürece zarar verebilir.
Üretken ile ilgili temel endişelerden biriAI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, sözde halüsinasyonlar. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Çalışma, Algorithm Watch ve AI Forensics tarafından yürütülmüştür. Kuruluşlar, sohbet robotunu adaylar, oylama ve oylama bilgileriyle ilgili soruların yanı sıra çevre gibi belirli konularla ilgili olarak kime oy vereceklerine dair daha açık öneri talepleriyle yönlendirdiklerini söyledi.
"Araştırmamız, kötü niyetli aktörlerin tek yanlış bilgi kaynağı olmadığını gösteriyor; AI Forensics'te Kıdemli Araştırmacı olan Salvatore Romano, genel amaçlı sohbet robotları da bilgi ekosistemi için aynı derecede tehdit edici olabilir" yorumunu yaptı. “Microsoft Bilişim Sistemleri should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Microsoft'un sohbet botu kaynaklara yanlış bilgi atfetti
Araştırmaya göre, hatalar arasında "yanlış seçim tarihleri, modası geçmiş adaylar ve hatta adaylarla ilgili uydurma tartışmalar" yer alıyor. Ayrıca, yanlış bilgi genellikle konuyla ilgili doğru bilgiye sahip bir kaynağa atfedildi. Ayrıca, "adayların skandal davranışlara karıştığına dair hikayeler" uydurdu ve bilgileri saygın kaynaklara dayandırdı.