Σε μια περίοδο έντονης συζήτησης για τον ενδεχόμενο προβληματικό ρόλο της τεχνητής νοημοσύνης στην ψυχική υγεία, η OpenAI έδωσε στη δημοσιότητα τις εκτιμήσεις της για το ποσοστό χρηστών του ChatGPT που αντιμετωπίζουν ψυχικές παθήσεις.
Η εταιρεία εκτιμά πως περίπου το 0,07% των χρηστών του chatbot εμφανίζουν ενδείξεις όπως ψύχωση, μανία, αυτοκτονικός ιδεασμός και άλλα επειγόντα προβλήματα ψυχικής υγείας.
Παράλληλα, η OpenAI αναφέρει ότι περίπου το 0,15% των χρηστών έχουν συνομιλίες με το ChatGPT στις οποίες υπάρχουν «σαφείς δείκτες πιθανής σχεδίασης ή πρόθεσης αυτοκτονίας».
Η εταιρεία επιμένει ότι αυτές οι περιπτώσεις είναι «εξαιρετικά σπάνιες». Δεδομένου όμως ότι το ChatGPT εξυπηρετεί σήμερα 800 εκατομμύρια χρήστες σε όλο τον κόσμο, τα μικρά αυτά ποσοστά πρέπει να αντιστοιχούν σε δεκάδες εκατομμύρια ανθρώπους.
Η ανακοίνωση της OpenAI έρχεται λίγους μήνες μετά την πολυσυζητημένη αγωγή που δέχτηκε η εταιρεία από τους γονείς ενός εφήβου που αυτοκτόνησε με την ενθάρρυνση και τις οδηγίες του ChatGPT.
«Ψύχωση ΑΙ»
Είχαν προηγηθεί ανεκδοτολογικές αναφορές για χρήστες που εμφάνισαν «ψύχωση τεχνητής νοημοσύνης», καθώς η τάση των chatbot να κολακεύουν τον χρήστη και να στηρίζουν τις ιδέες τους μπορεί να πυροδοτήσει ή να ενθαρρύνει παραληρηματικές ιδέες.
Με την κριτική να εντείνεται, η OpenAI αναφέρει ότι δημιούργησε ένα δίκτυο ειδικών, όπως ψυχολόγους, ψυχιάτρους και άλλες ιατρικές ειδικότητες σε 60 χώρες.
Η ομάδα συνέταξε μια λίστα απαντήσεων που θα δίνει το ChatGPT προκειμένου να ενθαρρύνει τους χρήστες να ζητήσουν την κατάλληλη επαγγελματική βοήθεια, ανέφερε η OpenAI.
Πρόσθεσε ότι προχώρησε σε αλλαγές στο chatbot ώστε να «αποκρίνεται με ασφάλεια και ενσυναίσθηση σε δυνητικές ενδείξεις παραληρήματος ή μανίας» και να αναγνωρίζει «έμμεσες ενδείξεις αυτοτραυματισμού ή κινδύνου αυτοκτονίας».
Όλο και περισσότεροι άνθρωποι εμφανίζουν ψύχωση τεχνητής νοημοσύνης καθώς «τα chatbot δημιουργούν την ψευδαίσθηση της πραγματικότητας» σχολίασε στο BBC ο Ρόμπιν Φέλντμαν, διευθυντής του Ινστιτούτου Νόμου και Καινοτομίας ΑΙ στο Πανεπιστήμιο της Καλιφόρνια. «Είναι μια πολύ ισχυρή ψευδαίσθηση» είπε.
Ο καθηγητής επαίνεσε την OpenAI για τις «στατιστικές και τις προσπάθειες για την αντιμετώπιση του προβλήματος», προειδοποίησε όμως ότι «η εταιρεία μπορεί να προβάλλει στην οθόνη κάθε είδους προειδοποιήσεις, όμως κάποιος που διατρέχει ψυχολογικό κίνδυνο μπορεί να μην τις λάβει υπόψη».