Como a Microsoft s AI chatbot alucina informação eleitoral
O próximo ano será um ano ocupado para a democracia. Grandes eleições terão lugar nos EUA, na UE e em Taiwan, entre outros. Assim como a implantação da era da IA geradora está ganhando ritmo em sério algo que alguns temem que possa ser prejudicial ao processo democrático.
Uma das principais preocupações sobre a geração IA é que ela poderia ser usada para a disseminação maliciosa de desinformação, ou que os modelos podem inventar afirmações falsas apresentando-as como fatos, As chamadas alucinações . Um estudo de duas ONGs europeias descobriu que o chatbot da Microsoft — Bing IA (rodando na GPT-4 da OpenAI) — deu respostas incorretas para um terço das perguntas sobre eleições na Alemanha e na Suíça.
O estudo foi conduzido pelo Algorithm Watch e AI Forensics. As organizações disseram que elas questionaram o chatbot sobre candidatos, informações sobre votação e pesquisas, além de pedidos mais abertos de recomendações sobre em quem votar quando preocupado com determinados assuntos, como o meio ambiente.
A nossa investigação mostra que os agentes malintencionados não são a única fonte de desinformação; os chatbots de uso geral podem ser igualmente uma ameaça para o ecossistema de informação", comentou salvatore romano, investigador sênior da AI forense. Microsoft deve reconhecer isso, e entender que sinalizar o conteúdo de IA gerativa criado por outros não é suficiente. Suas ferramentas, mesmo ao citarem fontes confiáveis, produzem informações incorretas em larga escala.”
O chatbot da Microsoft atribuiu informações falsas a fontes
De acordo com o estudo, os erros incluíram datas de eleição erradas, candidatos desatualizados ou até mesmo controvérsias inventadas sobre candidatos. Além disso, as informações incorretas eram frequentemente atribuídas a uma fonte que tinha informações corretas sobre o assunto.