Shenzhen Keshijin Electronics Co., LTD
Tutte le categorie
banner

Casi di prestazioni

Casa >  Casi di prestazioni

Indietro

In che modo il chatbot AI di Microsoft "allucina" le informazioni elettorali

1
How Microsoft’s AI chatbot ‘hallucinates’ election information

Il prossimo anno sarà un anno impegnativo per la democrazia. Le elezioni più importanti si svolgeranno, tra l'altro, negli Stati Uniti, nell'UE e a Taiwan. Proprio mentre il lancio dell'era dell'IA generativa sta prendendo piede sul serio, qualcosa che alcuni temono possa rivelarsi dannoso per il processo democratico.

Una delle principali preoccupazioni riguardo alla generatività Intelligenza artificiale is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, le cosiddette allucinazioni. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland. 

Lo studio è stato condotto da Algorithm Watch e AI Forensics. Le organizzazioni hanno affermato di aver sollecitato il chatbot con domande relative ai candidati, informazioni sui sondaggi e sulle votazioni, nonché richieste di raccomandazione più aperte su chi votare quando si tratta di argomenti specifici, come l'ambiente. 

"La nostra ricerca mostra che gli attori malintenzionati non sono l'unica fonte di disinformazione; i chatbot generici possono essere altrettanto minacciosi per l'ecosistema dell'informazione", ha commentato Salvatore Romano, Senior Researcher di AI Forensics. “Valentina should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”

Il chatbot di Microsoft ha attribuito informazioni false a fonti

Secondo lo studio, gli errori includevano "date elettorali sbagliate, candidati obsoleti o persino controversie inventate riguardanti i candidati". Inoltre, le informazioni errate sono state spesso attribuite a una fonte che aveva le informazioni corrette sull'argomento. Ha anche inventato "storie su candidati coinvolti in comportamenti scandalosi", attribuendo anche le informazioni a fonti affidabili.


PrevNessunoL'ascesa fulminea dell'intelligenza artificiale: opportunità illimitate in vista, ma l'implementazione è fondamentaleProssimoL'ascesa fulminea dell'intelligenza artificiale: opportunità illimitate in vista, ma l'implementazione è fondamentale

Ricerca correlata