Πώς η Microsoft χει chatbot παραισθάνεται εκλογικές πληροφορίες
Το επόμενο έτος θα είναι ένα πολυάσχολο για τη δημοκρατία. Μεγάλες εκλογές θα διεξαχθούν στις ΗΠΑ, την ΕΕ και την Ταϊβάν, μεταξύ άλλων. Ακριβώς όπως η ανάπτυξη της γενετικής εποχής AI κερδίζει ταχύτητα σοβαρά κάτι που κάποιοι φοβούνται ότι θα
Η Ελλάδα είναι η πρώτη χώρα που έχειαείναι ότι θα μπορούσε να χρησιμοποιηθεί για την κακόβουλη διάδοση παραπληροφόρησης ή ότι τα μοντέλα μπορούν να δημιουργήσουν ψευδείς δηλώσεις που τις παρουσιάζουν ως γεγονότα,Οι λεγόμενες παραισθήσειςΜια μελέτη δύο ευρωπαϊκών ΜΚΟ διαπίστωσε ότι το chatbot της Microsoft Bing AI (που λειτουργεί στο OpenBiss GPT-4) έδωσε λανθασμένες απαντήσεις σε ένα τρίτο των ερωτήσεων σχετικά με τις εκλογές στη Γερμανία και την Ελβετία.
Η μελέτη διεξήχθη από την Algorithm Watch και την AI Forensics. Οι οργανώσεις δήλωσαν ότι υποκίνησαν το chatbot με ερωτήσεις σχετικά με τους υποψηφίους, τις πληροφορίες δημοσκοπήσεων και ψηφοφορίας, καθώς και πιο ανοιχτά αιτήματα συστάσεων για το ποιος θα ψηφίσει
η έρευνα μας δείχνει ότι οι κακόβουλοι παράγοντες δεν είναι η μόνη πηγή παραπληροφόρησης· τα chatbots γενικής χρήσης μπορούν να είναι εξίσου απειλητικά για το οικοσύστημα πληροφοριών, σχολίασε ο salvatore romano, ανώτερος ερευνητής της AI forensics.microsoftΗ Εpiιτροpiή θα piρέpiει να piροσδιορίσει το piρόβληα αυτό και να αναγνωρίσει ότι η σήμανση του γενετικού piεριεχομένου νοητική εpiειρία piου piραγατοpiοιούνται αpiό άλλους δεν αρκεί.
Το chatbot της Microsoft απέδωσε ψευδείς πληροφορίες σε πηγές.
Σύμφωνα με την έρευνα, τα λάθη περιλαμβάνουν λάθος ημερομηνίες εκλογών, ξεπερασμένους υποψηφίους ή ακόμη και εφευρετικές διαφωνίες σχετικά με τους υποψηφίους. Επιπλέον, οι λανθασμένες πληροφορίες συχνά αποδίδονταν σε μια πηγή που είχε τις σωστές πληροφορίες για το θέμα.