Kā Microsoft mākslīgā intelekta tērzēšanas robots "halucinē" vēlēšanu informāciju
Nākamais gads demokrātijai būs aizņemts. Plašas vēlēšanas notiks arī ASV, ES un Taivānā. Tieši tāpat kā ģeneratīvā MI laikmeta izvēršana uzņem apgriezienus , kaut kas tāds, par ko daži baidās, var izrādīties kaitīgs demokrātiskajam procesam.
Viena no galvenajām bažām par ģeneratīvo AI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, tā sauktās halucinācijas. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Pētījumu veica Algorithm Watch un AI Forensics. Organizācijas sacīja, ka pamudinājušas tērzēšanas robotu ar jautājumiem, kas saistīti ar kandidātiem, vēlēšanu un balsošanas informāciju, kā arī atklātākiem ieteikumu pieprasījumiem par to, par ko balsot, ja runa ir par konkrētām tēmām, piemēram, vidi.
"Mūsu pētījumi liecina, ka ļaunprātīgi dalībnieki nav vienīgais dezinformācijas avots; vispārējas nozīmes tērzēšanas roboti var būt tikpat bīstami informācijas ekosistēmai," komentēja Salvatore Romano, mākslīgā intelekta kriminālistikas vecākais pētnieks. “Microsoft should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Microsoft tērzēšanas robots avotiem piedēvēja nepatiesu informāciju
Saskaņā ar pētījumu kļūdas ietvēra "nepareizus vēlēšanu datumus, novecojušus kandidātus vai pat izdomātas pretrunas par kandidātiem". Turklāt nepareizā informācija bieži tika attiecināta uz avotu, kuram bija pareiza informācija par šo tēmu. Tas arī veidoja "stāstus par kandidātiem, kas iesaistīti skandalozā uzvedībā", arī piedēvējot informāciju cienījamiem avotiem.