come il chatbot AI di Microsoft allucina le informazioni elettorali



L'anno prossimo sarà un anno impegnativo per la democrazia. Verranno organizzate elezioni importanti negli Stati Uniti, nell'Unione Europea e a Taiwan, tra gli altri. Proprio mentre il lancio dell'era dell'IA generativa sta prendendo il passo in modo serio qualcosa che alcuni temono possa rivelarsi dannoso per il processo democratico
Una delle principali preoccupazioni riguardo alla generativa IA è che potrebbe essere utilizzata per la diffusione malintenzionata di disinformazione, o che i modelli possano inventare affermazioni false presentandole come fatti, cosiddette allucinazioni . Uno studio condotto da due ONG europee ha scoperto che il chatbot di Microsoft — Bing AI (basato su OpenAI's GPT-4) — ha fornito risposte errate a un terzo delle domande sulle elezioni in Germania e Svizzera.
Lo studio è stato realizzato da Algorithm Watch e AI Forensics. Le organizzazioni hanno dichiarato di aver sollecitato il chatbot con domande relative ai candidati, alle informazioni sul voto e sui sondaggi, nonché richieste più aperte di consigli su chi votare quando si sono interessati a specifici argomenti, come l'ambiente.
La nostra ricerca dimostra che gli attori malintenzionati non sono l'unica fonte di disinformazione; i chatbot di uso generale possono essere altrettanto minacciosi per l'ecosistema informativo, ha commentato salvatore romano, ricercatore senior presso AI forensics. Microsoft dovrebbe riconoscere questo fatto, e capire che segnalare il contenuto generato da IA da parte degli altri non è sufficiente. I loro strumenti, anche quando implicano fonti attendibili, producono informazioni errate su larga scala.”
Il chatbot di Microsoft ha attribuito informazioni false alle fonti
Secondo gli errori dello studio, sono state incluse date elettorali sbagliate, candidati obsoleti o persino controversie inventate riguardanti i candidati. Inoltre, le informazioni errate sono state spesso attribuite a una fonte che aveva le informazioni corrette sull'argomento.