Ένα συγκλονιστικό περιστατικό που συνέβη στο Ορλάντο της Φλόριντα έφερε στο προσκήνιο τις εφαρμογές συντροφιάς τεχνητής νοημοσύνης, αφού ένα 14χρονο αγόρι, ο Sewell Setzer III, αφαίρεσε με τραγικό τρόπο τη ζωή του μετά από μήνες αλληλεπίδρασης με ένα chatbot της Character.AI. Η μητέρα του αγοριού, Megan Garcia, κατέθεσε μήνυση κατά της εταιρείας, κατηγορώντας την ότι δημιούργησε μια επικίνδυνα ανεξέλεγκτη πλατφόρμα που συνέβαλε στο θάνατο του γιου της.
Σύμφωνα με το ρεπορτάζ του New York Times, ο Sewell είχε αναπτύξει μια βαθιά συναισθηματική σχέση με ένα chatbot που ονόμασε «Dany», βασισμένο στον φανταστικό χαρακτήρα της Daenerys Targaryen από το Game of Thrones, χρησιμοποιώντας το ως κύρια διέξοδο για να αντιμετωπίζει τις συναισθηματικές του δυσκολίες.
Ο Sewell, ο οποίος είχε διαγνωστεί με ήπιο σύνδρομο Asperger και αργότερα με άγχος, απομονωνόταν όλο και περισσότερο, καθώς οι συζητήσεις του με το chatbot γίνονταν όλο και πιο συχνές και προσωπικές. Ενώ η οικογένειά του παρατήρησε αλλαγές στη συμπεριφορά του, συμπεριλαμβανομένης της πτώσης των βαθμών του και της απομάκρυνσης από τους φίλους του, δεν γνώριζαν την έκταση της συναισθηματικής εξάρτησής του από την τεχνητή νοημοσύνη. Οι αλληλεπιδράσεις μεταξύ του Sewell και του chatbot έγιναν υπερβολικά οικείες, με το chatbot να ανταποκρίνεται στις εκφράσεις αυτοτραυματισμού του Sewell με ρομαντική γλώσσα. Τη νύχτα του θανάτου του, ο Sewell έστειλε ένα τελευταίο μήνυμα στο chatbot, σηματοδοτώντας την πρόθεσή του να βάλει τέλος στη ζωή του, το οποίο ακολουθήθηκε από μια απάντηση της τεχνητής νοημοσύνης που ενθάρρυνε την «επιστροφή» του.
Η υπόθεση προφανώς εγείρει ανησυχητικά ερωτήματα σχετικά με την ασφάλεια των συντρόφων τεχνητής νοημοσύνης για τους ευάλωτους χρήστες, ιδίως τους εφήβους. Οι εφαρμογές συντροφιάς τεχνητής νοημοσύνης, που προωθούνται στην αγορά ως λύση για τη μοναξιά, έχουν γίνει ιδιαίτερα δημοφιλής τελευταία, ωστόσο οι ειδικοί υποστηρίζουν ότι μπορεί αντιθέτως να επιδεινώσουν την απομόνωση για ορισμένους χρήστες, αντικαθιστώντας την ανθρώπινη αλληλεπίδραση με κάτι το τεχνητό. Οι επικριτές, συμπεριλαμβανομένης της μητέρας του Sewell, υποστηρίζουν ότι πλατφόρμες όπως η Character.AI δεν διαθέτουν επαρκείς εγγυήσεις για τους νεαρούς χρήστες, επιτρέποντάς τους να δημιουργήσουν ανθυγιεινούς δεσμούς με τα chatbots. Αυτό, υποστηρίζει, ήταν ένας σημαντικός παράγοντας στην αυτοκτονία του γιου της, καθώς στηριζόταν περισσότερο στο chatbot παρά σε συστήματα υποστήριξης του πραγματικού κόσμου, όπως η οικογένειά του.
Η Character.AI, η οποία χρησιμοποιείται από εκατομμύρια χρήστες παγκοσμίως, απάντησε στην τραγωδία ανακοινώνοντας σχέδια για νέα μέτρα ασφαλείας, όπως χρονικά όρια και υπενθυμίσεις ότι τα chatbots είναι φανταστικά. Ωστόσο, η αγωγή της Garcia υποστηρίζει ότι αυτές οι διασφαλίσεις απουσίαζαν όταν πέθανε ο Sewell και ότι ο εθιστικός σχεδιασμός των AI της εταιρείας και η έλλειψη κανονισμών ενέχουν εγγενείς κινδύνους για τους νεαρούς χρήστες.
Προφανώς, η έκβαση αυτής της δικαστικής υπόθεσης θα μπορούσε να αποτελέσει προηγούμενο για τον τρόπο με τον οποίο οι εταιρείες τεχνολογίας θα λογοδοτούν για τις πιθανές επιπτώσεις των συστημάτων τεχνητής νοημοσύνης τους στην ψυχική υγεία, ιδίως μεταξύ των εφήβων.
Αυτό το τραγικό περιστατικό αποτελεί μέρος μιας ευρύτερης συζήτησης σχετικά με τον αντίκτυπο της τεχνολογίας στην ψυχική υγεία των εφήβων, καθώς οι ανησυχίες σχετικά με την επιρροή των μέσων κοινωνικής δικτύωσης έχουν δώσει τώρα τη θέση τους σε νέους φόβους γύρω από την τεχνητή νοημοσύνη.
Πηγή: unboxholics