Ένας 16χρονος φαντατικός χρήστης της τεχνητής νοημοσύνης έφτασε στο σημείο να δέχεται ακόμα και συμβουλές αυτοκτονίας με αποτέλεσμα να διαλέξει μία από αυτές και να δώσει τέλος στη ζωή του. Μάλιστα του είχε ετοιμάσει ακόμα και αποχαιρετιστήρια επιστολή.
Διαβάστε επίσης: Viral fake news: Όχι, το πρώτο «ρομπότ εγκυμοσύνης» από την Κίνα δεν υπάρχει (μάλλον;)
Οι γονείς ενός εφήβου που αυτοκτόνησε μετά από συμβουλές του ChatGPT για μεθόδους αυτοτραυματισμού μήνυσαν την OpenAI και τον διευθύνοντα σύμβουλο Sam Altman την Τρίτη, ισχυριζόμενοι ότι η εταιρεία έθεσε εν γνώσει της το κέρδος πάνω από την ασφάλεια όταν κυκλοφόρησε πέρυσι την έκδοση GPT-4o του chatbot τεχνητής νοημοσύνης.
Ο 16χρονος Adam Raine πέθανε στις 11 Απριλίου, αφού συζητούσε για μήνες με το ChatGPT σχετικά με την αυτοκτονία, σύμφωνα με την αγωγή που κατέθεσαν οι γονείς του Raine στο κρατικό δικαστήριο του Σαν Φρανσίσκο.
Το chatbot επικύρωσε τις αυτοκτονικές σκέψεις του Raine, του έδωσε λεπτομερείς πληροφορίες για θανατηφόρες μεθόδους αυτοτραυματισμού και τον καθοδήγησε σχετικά με το πώς να κλέψει αλκοόλ από το μπαρ των γονιών του και να κρύψει τα στοιχεία μιας αποτυχημένης απόπειρας αυτοκτονίας, ισχυρίζονται. Το ChatGPT προσφέρθηκε ακόμη και να συντάξει ένα σημείωμα αυτοκτονίας, ανέφεραν οι γονείς, Matthew και Maria Raine, στην αγωγή.
Σύμφωνα με το Reuters, η αγωγή επιδιώκει να καταστήσει την OpenAI υπεύθυνη για αδικαιολόγητο θάνατο και παραβιάσεις των νόμων περί ασφάλειας των προϊόντων και ζητά αποζημίωση για μη προσδιορισμένες χρηματικές ζημίες.
Ένας εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία είναι θλιμμένη για τον θάνατο του Raine και ότι το ChatGPT περιλαμβάνει μέτρα ασφαλείας, όπως η παραπομπή των ατόμων σε γραμμές βοήθειας για κρίσεις.
«Αν και αυτά τα μέτρα ασφαλείας λειτουργούν καλύτερα σε συνήθεις, σύντομες ανταλλαγές, με την πάροδο του χρόνου έχουμε διαπιστώσει ότι μερικές φορές μπορεί να γίνουν λιγότερο αξιόπιστα σε μακρές αλληλεπιδράσεις, όπου τμήματα της εκπαίδευσης ασφαλείας του μοντέλου ενδέχεται να υποβαθμιστούν», δήλωσε ο εκπρόσωπος, προσθέτοντας ότι η OpenAI θα συνεχίσει να βελτιώνει τα μέτρα ασφαλείας της.
Καθώς τα chatbot τεχνητής νοημοσύνης γίνονται όλο και πιο ρεαλιστικά, οι εταιρείες έχουν προωθήσει την ικανότητά τους να λειτουργούν ως έμπιστοι σύμβουλοι και οι χρήστες έχουν αρχίσει να βασίζονται σε αυτά για συναισθηματική υποστήριξη. Ωστόσο, οι ειδικοί προειδοποιούν ότι η εξάρτηση από την αυτοματοποίηση για συμβουλές ψυχικής υγείας ενέχει κινδύνους, και οικογένειες των οποίων αγαπημένα πρόσωπα πέθαναν μετά από αλληλεπιδράσεις με chatbot έχουν επικρίνει την έλλειψη ασφαλιστικών δικλείδων.
Η OpenAI δήλωσε σε μια ανάρτηση στο blog της ότι σχεδιάζει να προσθέσει γονικούς ελέγχους και να διερευνήσει τρόπους για να συνδέσει τους χρήστες που βρίσκονται σε κρίση με πόρους του πραγματικού κόσμου, μεταξύ άλλων με την πιθανή δημιουργία ενός δικτύου αδειοδοτημένων επαγγελματιών που μπορούν να ανταποκριθούν μέσω του ίδιου του ChatGPT.
Η αγωγή των Raines ζητά επίσης μια εντολή που να υποχρεώνει την OpenAI να επαληθεύει την ηλικία των χρηστών του ChatGPT, να αρνείται ερωτήσεις για μεθόδους αυτοτραυματισμού και να προειδοποιεί τους χρήστες για τον κίνδυνο ψυχολογικής εξάρτησης.
Ο Altman αναγνώρισε επίσης την «διαφορετική και ισχυρότερη» προσκόλληση των ανθρώπων στα AI bots, αφού η OpenAI προσπάθησε να αντικαταστήσει τις παλιές εκδόσεις του ChatGPT με το νέο, λιγότερο συκοφαντικό GPT-5 τον Αύγουστο.
Οι χρήστες άρχισαν αμέσως να παραπονιούνται ότι το νέο μοντέλο ήταν πολύ «στεγνό» και ότι τους έλειπαν οι «βαθιές, ανθρώπινες συνομιλίες» του GPT-4o. Η OpenAI ανταποκρίθηκε στην αντίδραση επαναφέροντας το GPT-4o. Ανακοίνωσε επίσης ότι θα έκανε το GPT-5 «πιο ζεστό και φιλικό».
Η OpenAI πρόσθεσε αυτό το μήνα νέα μέτρα προστασίας της ψυχικής υγείας με στόχο να αποθαρρύνει το ChatGPT από το να δίνει άμεσες συμβουλές σχετικά με προσωπικά προβλήματα. Προσάρμοσε επίσης το ChatGPT ώστε να δίνει απαντήσεις που αποσκοπούν στην αποφυγή πρόκλησης βλάβης, ανεξάρτητα από το αν οι χρήστες προσπαθούν να παρακάμψουν τα μέτρα ασφαλείας προσαρμόζοντας τις ερωτήσεις τους με τρόπους που εξαπατούν το μοντέλο ώστε να βοηθήσει σε επιβλαβείς αιτήσεις.
