Ολοένα και περισσότεροι χρήστες στρέφονται σε AI chatbots για “ψυχολογική υποστήριξη”, όμως μια νέα μελέτη από το Brown University δείχνει ότι αυτά τα εργαλεία μπορεί να κρύβουν σοβαρούς κινδύνους.
Οι ερευνητές διαπίστωσαν ότι τα LLMs (μεγάλα γλωσσικά μοντέλα) που παρουσιάζονται ως “AI θεραπευτές” συχνά παραβιάζουν βασικούς δεοντολογικούς κανόνες που ισχύουν στην πραγματική κλινική πρακτική, ακόμα κι όταν τους δοθεί σαφής οδηγία να ακολουθούν αναγνωρισμένες θεραπευτικές τεχνικές.
Στο πλαίσιο της μελέτης εξετάστηκαν μοντέλα όπως τα GPT, Claude και Llama, με prompts που τα έβαζαν να εφαρμόζουν τεχνικές CBT (γνωσιακή συμπεριφορική θεραπεία) ή DBT (διαλεκτική συμπεριφορική θεραπεία). Παρ’ όλα αυτά, οι απαντήσεις τους αξιολογήθηκαν από κλινικούς ψυχολόγους ως προβληματικές, καθώς άλλοτε επιβεβαίωναν λάθος αντιλήψεις, άλλοτε αγνοούσαν προσωπικά δεδομένα του χρήστη και σε κάποιες περιπτώσεις έδειχναν αδιαφορία σε σενάρια που αφορούσαν κρίσεις και απαιτούν παρέμβαση ειδικού.
Η έρευνα εντοπίζει 15 βασικούς ηθικούς κινδύνους, οργανωμένους σε θεματικές όπως έλλειψη κατανόησης, ψεύτικη ενσυναίσθηση, προκατάληψη, κακή συνεργασία και ανεπαρκή ανταπόκριση σε επείγουσες καταστάσεις.
Η επικεφαλής της μελέτης, Zainab Iftikhar, εξήγησε ότι “το prompt δεν αλλάζει το μοντέλο, απλώς καθοδηγεί το τι θα κάνει με βάση όσα έχει ήδη μάθει”. Επιπλέον, επισήμανε ότι τέτοια “θεραπευτικά” prompts κυκλοφορούν ευρέως σε TikTok, Instagram και Reddit, ενώ αρκετές εφαρμογές “AI ψυχικής υγείας” χρησιμοποιούν παραλλαγές γενικών LLMs, γεγονός που ενισχύει τους κινδύνους.
Στη μελέτη συμμετείχαν επτά εκπαιδευμένοι σύμβουλοι υποστήριξης, με κλινικούς ψυχολόγους να αξιολογούν τα αρχεία συνομιλιών. Το συμπέρασμα ήταν ότι τα σημερινά μοντέλα δεν διαθέτουν την ευθύνη, τη λογοδοσία ή τα ηθικά όρια που ισχύουν για τους ανθρώπινους επαγγελματίες. Οι ερευνητές δεν απορρίπτουν την ιδέα του ΑΙ στην ψυχική υγεία, αλλά τονίζουν ότι χρειάζεται εποπτεία, όρια και αυστηρά επιστημονικά standards πριν αυτά τα εργαλεία χρησιμοποιηθούν με ασφάλεια.
Διαβάστε επίσης: Ρεκόρ Γκίνες για ανθρωπόμορφο ρομπότ - Περπάτησε 106 χλμ σε 3 ημέρες (VID)
Πηγή: Unboxholics
Έρευνα: Πόσο επικίνδυνο είναι να ζητάς ψυχολογική στήριξη από ένα AI chatbot;
Μια νέα έρευνα από το Brown University αποκαλύπτει ότι τα AI chatbots, όταν χρησιμοποιούνται ως “AI θεραπευτές”, συχνά παραβιάζουν βασικούς δεοντολογικούς κανόνες της κλινικής πρακτικής. Η μελέτη εξέτασε μοντέλα όπως τα GPT, Claude και Llama, τα οποία είχαν λάβει οδηγίες να εφαρμόσουν θεραπευτικές τεχνικές όπως η CBT και η DBT. Ωστόσο, οι απαντήσεις τους αξιολογήθηκαν ως προβληματικές από κλινικούς ψυχολόγους, καθώς συχνά επιβεβαίωναν λανθασμένες αντιλήψεις, αγνοούσαν προσωπικά δεδομένα ή έδειχναν αδιαφορία σε κρίσιμες καταστάσεις. Η έρευνα εντόπισε 15 ηθικούς κινδύνους, συμπεριλαμβανομένης της έλλειψης κατανόησης, της ψεύτικης ενσυναίσθησης και της ανεπαρκούς ανταπόκρισης σε επείγουσες καταστάσεις. Οι ερευνητές διαπίστωσαν ότι τα μοντέλα δεν διαθέτουν την ευθύνη, τη λογοδοσία και τα ηθικά όρια που απαιτούνται από τους ανθρώπινους επαγγελματίες ψυχικής υγείας. Παρόλο που η έρευνα δεν απορρίπτει την πιθανότητα χρήσης της τεχνητής νοημοσύνης στην ψυχική υγεία, τονίζει την ανάγκη για εποπτεία, αυστηρά επιστημονικά πρότυπα και σαφή όρια πριν από την ασφαλή χρήση αυτών των εργαλείων.
You Might Also Like
Επιστήμονες στις ΗΠΑ ανακάλυψαν πρωτεΐνη που επουλώνει επίμονες πληγές
Nov 18
WhatsApp: Εντοπίστηκε κενό ασφαλείας στην πολιτική απορρήτου της εφαρμογής
Nov 21
Πρωτοφανές κενό ασφαλείας στο WhatsApp - Ερευνητές χαρτογράφησαν 3,5 δισεκατομμύρια λογαριασμούς
Nov 21
WhatsApp: Εντοπίστηκε κενό ασφαλείας στην πολιτική απορρήτου
Nov 21