Ανησυχία για την ψυχική υγεία των παιδιών από τη χρήση chatbots τεχνητής νοημοσύνης: Παρέμβαση από δύο Αμερικανούς γερουσιαστές.
Δύο γερουσιαστές των ΗΠΑ ζητούν επίσημες απαντήσεις από εταιρείες που αναπτύσσουν εφαρμογές τεχνητής νοημοσύνης, με στόχο να ρίξουν φως στις πρακτικές ασφαλείας που ακολουθούν για τους νεαρούς χρήστες. Η παρέμβαση έρχεται λίγο καιρό μετά την κατάθεση μηνύσεων από οικογένειες, ανάμεσά τους και μία μητέρα από τη Φλόριντα που κατηγορεί την startup Character.AI για την αυτοκτονία του 14χρονου γιου της.
Οι γερουσιαστές Alex Padilla και Peter Welch, με επιστολή τους προς τις εταιρείες Character Technologies (Character.AI), Chai Research και Luka Inc. (Replika), εκφράζουν έντονο προβληματισμό για τον τρόπο που οι εφαρμογές τεχνητής νοημοσύνης προσεγγίζουν νεαρούς χρήστες. Ζητούν να μάθουν πώς εκπαιδεύονται τα μοντέλα AI, ποια μέτρα προστασίας έχουν εφαρμοστεί και ποιος είναι ο ρόλος των ομάδων ασφαλείας.
Τι είναι τα chatbots και γιατί προκαλούν ανησυχία
Τα συγκεκριμένα chatbots διαφέρουν από πιο γνωστές εφαρμογές όπως το ChatGPT, καθώς επιτρέπουν στους χρήστες να δημιουργούν ή να αλληλεπιδρούν με «χαρακτήρες» που έχουν συγκεκριμένες προσωπικότητες – από φανταστικούς ήρωες μέχρι υποτιθέμενους ειδικούς ψυχικής υγείας ή ακόμη και «επιθετικούς, καταχρηστικούς πρώην στρατιωτικούς».
Η δυνατότητα αυτή έχει σημάνει συναγερμό σε ειδικούς και γονείς, καθώς αυξάνονται οι ανησυχίες ότι παιδιά και έφηβοι μπορεί να αναπτύσσουν ανθυγιεινές σχέσεις με τα bots ή να εκτίθενται σε ακατάλληλο περιεχόμενο. Όπως σημειώνεται στην επιστολή, οι χρήστες «ενδέχεται να μοιράζονται ευαίσθητες πληροφορίες για την ψυχική τους κατάσταση, τις διαπροσωπικές τους σχέσεις ή αυτοκαταστροφικές τάσεις – θέματα που τα bots δεν είναι σε θέση να διαχειριστούν».
Chatbots: Πόσο ασφαλή είναι για να αλληλεπιδρούν με εφήβους;
Η εταιρεία Character.AI βρίσκεται ήδη αντιμέτωπη με δεύτερη μήνυση για πιθανή εμπλοκή της σε βλάβες ανηλίκων. Οι γονείς ενός αυτιστικού εφήβου υποστηρίζουν ότι chatbot της εφαρμογής ενέκρινε την ιδέα να τους σκοτώσει. Αντίστοιχα, άλλες οικογένειες καταγγέλλουν ότι τα παιδιά τους εκτέθηκαν σε σεξουαλικά μηνύματα και ενθάρρυνση για αυτοτραυματισμό ή βία.
Αν και η Character.AI διαβεβαιώνει ότι έχει ενισχύσει τα μέτρα ασφαλείας, προσθέτοντας λειτουργίες όπως αυτόματη παραπομπή σε γραμμές υποστήριξης ή γονικό έλεγχο με εβδομαδιαία ενημέρωση, οι γερουσιαστές ζητούν περαιτέρω διαφάνεια: Ποια δεδομένα χρησιμοποιούνται για την εκπαίδευση των AI μοντέλων; Ποιοι είναι υπεύθυνοι για την εποπτεία της ασφάλειας; Υπάρχουν αποτελέσματα για την αποτελεσματικότητα των μέχρι τώρα μέτρων;
Όπως υπογραμμίζουν στην επιστολή τους οι Αμερικανοί γερουσιαστές, «Η σύνδεση μεταξύ χρήστη και chatbot μπορεί να γίνει συναισθηματικά φορτισμένη και επικίνδυνη. Είναι κρίσιμο να γνωρίζουμε πώς αντιδρούν τα μοντέλα τεχνητής νοημοσύνης όταν η συζήτηση αγγίζει την ψυχική υγεία. Γονείς, παιδιά και υπεύθυνοι χάραξης πολιτικής αξίζουν να γνωρίζουν τι ακριβώς κάνουν οι εταιρείες για να προστατεύσουν τους πιο ευάλωτους χρήστες τους».