Hoe Microsoft se KI-kletsbot verkiesingsinligting 'hallusineer'
Die komende jaar sal 'n besige jaar vir demokrasie wees. Groot verkiesings sal onder meer in die VSA, die EU en Taiwan plaasvind. Net soos die ontplooiing van generatiewe KI-era in alle erns spoed kry - iets wat sommige vrees nadelig vir die demokratiese proses kan wees.
Een van die grootste bekommernisse oor generatiewe AI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, sogenaamde hallusinasies. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Die studie is uitgevoer deur Algorithm Watch en AI Forensics. Die organisasies het gesê hulle het die kletsbot gevra met vrae rakende kandidate, peilings- en steminligting, sowel as meer oop aanbevelingsversoeke oor vir wie om te stem wanneer hulle oor spesifieke onderwerpe, soos die omgewing, gemoeid is.
"Ons navorsing toon dat kwaadwillige akteurs nie die enigste bron van verkeerde inligting is nie; algemene chatbots kan net so bedreigend vir die inligting-ekosisteem wees," het Salvatore Romano, senior navorser by AI Forensics, gesê. “Microsoft should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Microsoft se kletsbot het vals inligting aan bronne toegeskryf
Volgens die studie het foute "verkeerde verkiesingsdatums, verouderde kandidate of selfs uitgedinkte kontroversies rakende kandidate" ingesluit. Boonop is die verkeerde inligting dikwels toegeskryf aan 'n bron wat die korrekte inligting oor die onderwerp gehad het. Dit het ook "stories opgemaak oor kandidate wat betrokke is by skandalige gedrag", wat ook die inligting aan betroubare bronne toegeskryf het.