Miten Microsoftin AI chatbot hallusinoi vaalitietoja?
Seuraavan vuoden aikana demokratialle tulee olemaan kiireinen vuosi. Suuret vaalit järjestetään muun muassa Yhdysvalloissa, EU:ssa ja Taiwanissa. Juuri kun AI-ajan käyttöönotto on vakavasti kiihtynyt - jotkut pelkäävät, että se voi vahingoittaa demokraattista prosessia.
Tämä on yksi tärkeimmistä huolenaiheistaaiettä sitä voidaan käyttää väärän tiedon haittahaasteisiin tai että mallit voivat keksiä vääriä lausuntoja, jotka esitetään tosiasiaksi,niin kutsutut hallusinaatiot. kahden eurooppalaisen kansalaisjärjestön tekemän tutkimuksen mukaan Microsoftin chatbot bing ai (openain gpt-4:llä) antoi virheellisiä vastauksia kolmannekselle Saksan ja Sveitsin vaaleista.
Tutkimuksen suoritti algoritmi-Vartija ja AI Forensics. Järjestöt sanoivat, että he pyysivät chatbottia kysymyksiin, jotka liittyivät ehdokkaisiin, äänestys- ja äänestystiedoihin sekä avoimempiin suosituksiin siitä, ketä äänestää, kun kyse on tietyistä aiheista, kuten ympäristö
tutkimuksemme osoittaa, että väärinkäytökset eivät ole ainoat väärinkäytösten lähteet; yleiskäyttöiset chatbotit voivat olla yhtä vaarallisia tietoekosysteemin kannalta, kommentoi ai forensicsin vanhempi tutkija salvatore romano.MicrosoftinTämä on tärkeää, koska se on tärkeää, että ihmiset ymmärtävät, että muiden luoman aihetekijöiden merkitseminen ei riitä.
Microsoftin chatbotin mukaan väärät tiedot lähteistä
Tutkimuksen mukaan virheisiin kuului väärät vaalipäivämäärät, vanhentuneet ehdokkaat tai jopa keksittyjä ehdokkaita koskevia kiistoja. Lisäksi virheelliset tiedot oli usein tarkoitettu lähteelle, jolla oli oikeat tiedot aiheesta.