cách mà microsoft s AI chatbot hạ giác thông tin bầu cử
Năm tới sẽ là một năm bận rộn cho dân chủ. Các cuộc bầu cử lớn sẽ diễn ra ở Mỹ, EU và Đài Loan, trong số những nước khác. Cũng như việc triển khai thời đại AI tạo ra đang tăng tốc độ nghiêm túc một cái gì đó một số lo ngại có thể chứng minh là có hại cho quá trình dân chủ.
Một trong những lo ngại chính về công nghệ sinh thành Trí tuệ nhân tạo là nó có thể được sử dụng để lan truyền thông tin sai lệch một cách ác ý, hoặc rằng các mô hình có thể đưa ra những tuyên bố sai nhưng trình bày chúng như là sự thật, cái gọi là ảo giác . Một nghiên cứu từ hai tổ chức phi chính phủ châu Âu đã phát hiện rằng trợ lý ảo của Microsoft — Bing AI (hoạt động trên nền tảng GPT-4 của OpenAI) — đã đưa ra câu trả lời sai cho một phần ba câu hỏi về bầu cử ở Đức và Thụy Sĩ.
Nghiên cứu được thực hiện bởi Algorithm Watch và AI Forensics. Các tổ chức này cho biết họ đã đặt câu hỏi cho trợ lý ảo về các ứng cử viên, thông tin bỏ phiếu và bầu cử, cũng như yêu cầu gợi ý mở hơn về việc nên bầu cho ai khi quan tâm đến các chủ đề cụ thể như môi trường.
Nghiên cứu của chúng tôi cho thấy các nhân vật độc hại không phải là nguồn duy nhất của thông tin sai lệch; các chatbot có mục đích chung cũng có thể là mối đe dọa cho hệ sinh thái thông tin, bình luận salvatore romano, nhà nghiên cứu cao cấp tại AI forensics. microsoft cần nhận thức điều này, và hiểu rằng việc chỉ đánh dấu nội dung AI sinh thành do người khác tạo ra là không đủ. Các công cụ của họ, ngay cả khi dựa vào nguồn đáng tin cậy, vẫn sản xuất thông tin sai lệch trên quy mô lớn.”
microsofts chatbot đã gán thông tin sai với các nguồn
theo các lỗi nghiên cứu bao gồm: ngày bầu cử sai, ứng cử viên lỗi thời, hoặc thậm chí là những tranh cãi được bịa ra liên quan đến các ứng cử viên. Hơn nữa, thông tin không chính xác thường được quy cho một nguồn có thông tin chính xác về chủ đề. nó cũng tạo ra câu chuyện về các ứng cử viên