כיצד צ'אט בוט AI של מיקרוסופט "הוזה" מידע על בחירות
השנה הקרובה תהיה שנה עמוסה לדמוקרטיה. בחירות מרכזיות יתקיימו בין היתר בארה"ב, באיחוד האירופי ובטייוואן. בדיוק כפי שההשקה של עידן הבינה המלאכותית הגנרטיבית צוברת תאוצה ברצינות – דבר שיש החוששים שעלול להזיק לתהליך הדמוקרטי.
אחד החששות העיקריים לגבי גנרטיבי בינה מלאכותית is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, מה שנקרא הזיות. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
המחקר נערך על ידי Algorithm Watch ו-AI Forensics. הארגונים אמרו כי הם הניעו את הצ'אט בוט עם שאלות הקשורות למועמדים, מידע על סקרים והצבעה, כמו גם בקשות פתוחות יותר להמלצות למי להצביע כאשר מדובר בנושאים ספציפיים, כגון איכות הסביבה.
"המחקר שלנו מראה שגורמים זדוניים אינם המקור היחיד למידע שגוי; צ'אטבוטים למטרות כלליות יכולים להיות מאיימים באותה מידה על המערכת האקולוגית של המידע", אמר סלבטורה רומנו, חוקר בכיר ב-AI Forensics. “מיקרוסופט should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
הצ'אטבוט של מיקרוסופט ייחס מידע כוזב למקורות
על פי המחקר, טעויות כללו "תאריכי בחירות שגויים, מועמדים מיושנים או אפילו מחלוקות מומצאות הנוגעות למועמדים". יתר על כן, המידע השגוי יוחס לעתים קרובות למקור שהיה בעל המידע הנכון בנושא. הוא גם המציא "סיפורים על מועמדים שהיו מעורבים בהתנהגות שערורייתית", וייחס את המידע גם למקורות מכובדים.