Как AI чатботът на Microsoft халюцинира избирателна информация
Предстоящата година ще бъде много натоварена за демокрацията. Големи избори ще се проведат в САЩ, ЕС и Тайван, между другото. Точно когато разгръщането на генеративната AI ера набира скорост сериозно нещо, което някои се страхуват, че може да се окаже вредно за демократичния процес.
един от основните проблеми за генериранеаие, че може да бъде използвана за злонамерено разпространение на дезинформация, или че моделите могат да изнасят фалшиви твърдения, представящи ги като факти,така наречените халюцинацииПроучване на две европейски неправителствени организации установи, че чатботът на Microsoft Bing AI (работи на OpenStreetMap GPT-4) дава грешни отговори на една трета от въпросите за изборите в Германия и Швейцария.
Изследването е проведено от Algorithm Watch и AI Forensics. Организациите заявиха, че са подтикнали чатбота с въпроси, свързани с кандидати, информация за проучвания и гласуване, както и с по-отворени препоръки за това за кого да гласуват, когато се занимават с конкре
Нашето изследване показва, че злонамерените участници не са единственият източник на дезинформация; чатботовете с общо предназначение могат да бъдат също толкова заплаха за информационната екосистема", коментира salvatore romano, старши изследовател в AI forensics.MicrosoftВ този смисъл, когато се използва AI, трябва да се признае, че не е достатъчно да се маркира генериращото съдържание на AI, създадено от други хора.
Чатботът на Microsoft е приписал фалшива информация на източници.
Според проучването грешките включват грешителни дати на изборите, остарели кандидати или дори измислени спорове относно кандидатите. Освен това, неправилната информация често се приписва на източник, който има правилна информация за темата.