hoe Microsoft se AI-chatbot hallucinasies verkiesing inligting
Die komende jaar sal 'n besige jaar vir demokrasie wees. Groot verkiesings sal onder andere in die VSA, die EU en Taiwan plaasvind. Net soos die uitrol van die generatiewe AI-era vinnig toeneem iets wat sommige vrees kan die demokratiese proses benadeel.
een van die belangrikste kommer oor generatiewea.is dat dit gebruik kan word vir die kwaadwillige verspreiding van waninformation, of dat modelle vals stellings kan maak wat hulle as feite aanbied,sogenaamde hallusinasies. 'n studie van twee Europese NRO's het bevind dat Microsoft se chatbot bing ai (op OpenSUSE gpt-4) verkeerde antwoorde gegee het op 'n derde van die vrae oor verkiesings in Duitsland en Switserland.
Die studie is deur algoritmewatch en AI forensics gedoen. Die organisasies het gesê hulle het die chatbot gevra met vrae rakende kandidate, peiling- en steminligting, asook meer oop aanbevelingsversoeke oor wie om te stem wanneer dit met spesifieke onderwerpe, soos die omgewing, verband hou.
Ons navorsing toon dat kwaadwillige akteurs nie die enigste bron van verkeerde inligting is nie; chatbots met algemene doeleindes kan net so 'n bedreiging vir die inligting-ekosisteem wees, het salvatore romano, senior navorser by AI forensics, gesê.MicrosoftDie gebruikers van die gereedskap, selfs wanneer betroubare bronne betrokke is, produseer verkeerde inligting op groot skaal.
Microsoft se chatbot toegeskryf vals inligting aan bronne
Volgens die studie was die foute verkeerde verkiesingsdatums, verouderde kandidate of selfs uitgevindde kontroversieë oor kandidate. Verder is die verkeerde inligting dikwels toegeskryf aan 'n bron wat die korrekte inligting oor die onderwerp gehad het. dit het ook verhale gemaak oor kandidate wat betrokke is by skanda