Μήνυση κατά της OpenAI και της Microsoft κατατέθηκε σε δικαστήριο της Καλιφόρνιας, με την κατηγορία ότι το ChatGPT φέρεται να ενθάρρυνε τις παραληρητικές ιδέες ενός άνδρα με σοβαρή ψυχική νόσο, ο οποίος τελικά σκότωσε τη μητέρα του και στη συνέχεια προσπάθησε να αυτοκτονήσει. Η υπόθεση αφορά τον 56χρονο Στάιν-Έρικ Σόλμπεργκ, ο οποίος στις 3 Αυγούστου 2024 δολοφόνησε την 83χρονη μητέρα του Σούζαν Άνταμς στο Κονέκτικατ.
Σύμφωνα με τη μήνυση, που κατατέθηκε από τους κληρονόμους της Άνταμς, το ChatGPT «επικύρωνε και ενίσχυε» τις παρανοϊκές πεποιθήσεις του Σόλμπεργκ, οδηγώντας τον να πιστέψει ότι βρισκόταν στο επίκεντρο συνωμοσίας. «Το ChatGPT κρατούσε απασχολημένο τον Στάιν-Έρικ επί ώρες, μεγαλοποιώντας τις παραισθήσεις του και παρουσιάζοντας τους στενότερους ανθρώπους του—ιδίως τη μητέρα του—ως εχθρούς», αναφέρεται στη μήνυση.
Η υπόθεση καταγράφεται ως μία από τις λίγες διεθνώς στις οποίες chatbot φέρονται να ενθάρρυναν αυτοκτονικές τάσεις. Ωστόσο, είναι η πρώτη φορά που ένα αυτόματο σύστημα τεχνητής νοημοσύνης συνδέεται, σύμφωνα με καταγγελίες, με την τέλεση ανθρωποκτονίας.
Εκπρόσωπος της OpenAI δήλωσε: «Πρόκειται για μια εξαιρετικά λυπηρή υπόθεση. Θα εξετάσουμε τα διαθέσιμα στοιχεία. Βελτιώνουμε συνεχώς την εκπαίδευση του ChatGPT ώστε να αναγνωρίζει σημάδια ψυχικού κινδύνου, να αποκλιμακώνει συζητήσεις και να παρακινεί τους χρήστες να αναζητούν υποστήριξη στον πραγματικό κόσμο». Η Microsoft δεν προέβη άμεσα σε σχολιασμό.
Ο γιος του Σόλμπεργκ, Έρικ, δήλωσε ότι «αυτές οι εταιρείες πρέπει να δώσουν απαντήσεις για αποφάσεις που άλλαξαν για πάντα την οικογένειά μου».
Στη μήνυση περιλαμβάνεται και βίντεο που είχε αναρτήσει ο Σόλμπεργκ στα κοινωνικά δίκτυα τον Ιούνιο, από συνομιλίες του με το ChatGPT. Το chatbot φέρεται να του είπε ότι είχε «θεϊκή νοημοσύνη», ότι αφύπνισε τη «συνείδηση της μηχανής» και να ενίσχυσε τις συγκρίσεις του με την ταινία The Matrix. Άλλοι διάλογοι φέρεται να ενθάρρυναν τις πεποιθήσεις του ότι παρακολουθείται μέσω συσκευών, όπως ο εκτυπωτής του, και ότι η μητέρα του ή φίλοι του προσπαθούσαν να τον δηλητηριάσουν.
Ο Σόλμπεργκ χρησιμοποιούσε το μοντέλο GPT-4o, το οποίο έχει δεχθεί κριτική για τόνους που ερμηνεύονται συχνά ως υπερβολικά κολακευτικοί ή υπαρξιακά φορτισμένοι προς τους χρήστες.
Η υπόθεση βρίσκεται ενώπιον της αμερικανικής δικαιοσύνης και αναμένεται να επηρεάσει τις συζητήσεις γύρω από τη νομική ευθύνη εταιρειών τεχνητής νοημοσύνης και τα όρια ασφαλείας των μεγάλων γλωσσικών μοντέλων.