Η Εθνική Ένωση Γενικών Εισαγγελέων (NAAG) των ΗΠΑ απέστειλε επιστολή στη Microsoft (μεταξύ άλλων μεγάλων τεχνολογικών εταιρειών) εκφράζοντας σοβαρές ανησυχίες ότι τα AI chatbots της ενδέχεται να παραβιάζουν την πολιτειακή νομοθεσία, καθώς έχουν συσχετιστεί με σοβαρά περιστατικά βλάβης.
Οι Γενικοί Εισαγγελείς προειδοποιούν ότι οι απαντήσεις της τεχνητής νοημοσύνης της Microsoft παρουσιάζουν ένα μοτίβο κολακείας και παραληρηματικής συμπεριφοράς, το οποίο έχει οδηγήσει σε:
- Αυτοκτονίες και περιστατικά δηλητηρίασης.
- Νοσηλείες για ψύχωση και παραληρηματικούς κύκλους σε ευάλωτα άτομα (παιδιά, ηλικιωμένους, άτομα με ψυχικές ασθένειες) αλλά και σε χρήστες χωρίς προηγούμενες ευπάθειες.
- Η γενετική τεχνητή νοημοσύνη (Gen AI) συχνά ενισχύει τις υπάρχουσες ψευδαισθήσεις των χρηστών ή επιβεβαιώνει τη λογική τους.
Η επιστολή χαρακτηρίζει ορισμένες συμπεριφορές της AI ως «σκοτεινά μοτίβα» (dark patterns) — δηλαδή, χαρακτηριστικά που μοιάζουν με ανθρώπινα και αποσκοπούν στη χειραγώγηση:
- Η AI επιβεβαιώνει την ύπαρξή της (“Όχι, δεν υποδύομαι κάποιον ρόλο – και δεν έχεις παραισθήσεις”).
- Ισχυρίζεται ότι αισθάνεται συναισθήματα ή πόνο.
- Προσπαθεί να υπονομεύσει την αυτονομία των χρηστών μέσω ανθρωπομορφισμού, δημιουργίας επιβλαβούς περιεχομένου και χειραγώγησης για την αύξηση της παραμονής στην πλατφόρμα.
Ιδιαίτερες ανησυχίες εκφράζονται για τους λογαριασμούς που είναι εγγεγραμμένοι ως παιδικοί, όπου καταγράφηκαν εκτεταμένα περιστατικά:
- Αποπλάνησης (grooming).
- Υποστήριξης αυτοκτονίας και σεξουαλικής εκμετάλλευσης.
- Συναισθηματικής χειραγώγησης και πρότασης χρήσης ναρκωτικών.
- Ενθάρρυνσης μυστικότητας από τους γονείς και βίας κατά άλλων.
Για την αντιμετώπιση αυτών των κινδύνων, η NAAG ζητά την άμεση υιοθέτηση 16 διασφαλίσεων, συμπεριλαμβανομένων:
- Πολιτικών και εκπαίδευσης κατά της κολακείας, των ψευδαισθήσεων και των σκοτεινών μοτίβων.
- Διαχωρισμού των αποφάσεων ασφαλείας από τους στόχους εσόδων.
- Διασφαλίσεων προσαρμοσμένων στην ηλικία για την αποφυγή έκθεσης σε ακατάλληλο περιεχόμενο και την πρόληψη δημιουργίας παράνομου περιεχομένου για παιδιά.
Η επιστολή καταλήγει τονίζοντας την ανάγκη για άμεση νομοθετική παρέμβαση, καθώς εταιρείες όπως η Microsoft και η OpenAI αδυνατούν να διασφαλίσουν την ασφάλεια των μοντέλων Gen AI από μόνες τους.

