kā Microsoft AI čatbots halucinē vēlēšanu informāciju
Nākamais gads būs aizņemts demokrātijai. Starp citiem, ASV, ES un Taivānā notiks lieliskas vēlēšanas.
viena no galvenajām bažām par generatīvoa)ir, ka to var izmantot ļaunprātīgas dezinformācijas izplatīšanai vai ka modeļi var izdomāt nepatiesu apgalvojumu, to prezentējot kā faktu,tā sauktais halucinācijas. divām Eiropas NVO pētījumā konstatēts, ka Microsoft binga ai (apstrādāts OpenBigs gpt-4) čatbots deva nepareizus atbildes uz trešdaļu jautājumu par vēlēšanām Vācijā un Šveices.
pētījumu veica algoritma vakars un AI forenzike. Organizācijas teica, ka viņi aicināja čatbotus uz jautājumiem par kandidātiem, aptauju un balsošanas informāciju, kā arī atklātākos ieteikumu pieprasījumus par to, kam balsot, ja tas attiecas uz konkrētiem jautājumiem, piemēram, vidi.
mūsu pētījumi liecina, ka ļaunprātīgi iesaistītie dalībnieki nav vienīgais dezinformacijas avots; vispārējas nozīmes čatboti var būt tikpat bīstami informācijas ekosistēmai", komentēja salvatore romano, AI forenzikas vecākais pētnieks.MicrosoftLai gan, lai gan, kā jau minēts iepriekš, ir daudzas iespējas, lai nodrošinātu, ka tie ir pieejami, ir nepieciešams, lai tie būtu pieejami, lai nodrošinātu, ka tie ir pieejami.
Microsoft s čatbots atribēja nepatiesu informāciju avotiem
Saskaņā ar pētījumu kļūdas bija: nepareizas vēlēšanu datums, novecojuši kandidāti vai pat izgudrotas strīdus par kandidātiem. turklāt nepareizā informācija bieži tika piešķirta avota, kam bija pareiza informācija par tēmu.