cum Microsoft s AI chatbot alucina informaţii electorale
Anul următor va fi unul ocupat pentru democraţie. Vor avea loc alegeri majore în SUA, UE şi Taiwan, printre altele. Chiar în momentul în care dezvoltarea erei AI generative îşi face rapidă apariţia ceva de care unii se tem că s-ar putea dovedi dăunător procesului democratic.
Una dintre principalele preocupări legate de generativeaieste că ar putea fi folosită pentru răspândirea dezinformării cu intenții rău intenționate sau că modelele pot face declarații false care le prezintă ca fiind fapte,aşa-numitele halucinaţiiUn studiu realizat de două ONG-uri europene a constatat că chatbot-ul Microsoft bing ai (care rulează pe OpenStreetMap) a dat răspunsuri incorecte la o treime din întrebările privind alegerile din Germania şi Elveţia.
Studiul a fost realizat de algoritm watch și AI forensics. Organizațiile au spus că au solicitat chatbot-ului întrebări legate de candidați, informații despre sondaje și votare, precum și cereri de recomandări mai deschise despre cine să voteze atunci când se ocupă de subiecte specifice, cum ar fi medi
Cercetările noastre arată că actorii răutăcioşi nu sunt singura sursă de dezinformare; chatbot-urile de scop general pot fi la fel de ameninţătoare pentru ecosistemul informaţional", a comentat salvatore romano, cercetător senior la AI forensics.MicrosoftÎn acest context, este necesar să se recunoască faptul că, în cazul în care o persoană este implicată în activităţi de informare, nu este suficientă identificarea conţinutului generativ al AI, dar trebuie să se recunoască faptul că, în cazul în care o persoană este implicată în activităţi de informare, instrumentele sale, chiar şi
Microsoft s chatbot atribuit informații false la surse
În conformitate cu studiul erorile incluse date alegerilor greșite, candidați depășiți, sau chiar controverse inventate cu privire la candidați. mai mult, informațiile incorecte au fost adesea atribuite unei surse care avea informații corecte pe tema.