Γνώμη: Είναι οι Chatbots Καλοί Θεραπευτές;

Image generated by ChatGPT

Γνώμη: Είναι οι Chatbots Καλοί Θεραπευτές;

Χρόνος ανάγνωσης: 9 λεπτό

Τα AI chatbots όπως το ChatGPT, το Claude και το DeepSeek μεταμορφώνουν τον τρόπο με τον οποίο οι άνθρωποι έχουν πρόσβαση σε συναισθηματική υποστήριξη – προσφέροντας οικονομική, άμεση βοήθεια για το άγχος, το στρες και την αυτοανασκόπηση. Ωστόσο, η αυξανόμενη χρήση της AI ως «θεραπευτή» θέτει ερωτήματα σχετικά με την ασφάλεια, την αποτελεσματικότητα και το μέλλον της συναισθηματικής φροντίδας

Η αύξηση των απατών AI και οι αυξανόμενες ανησυχίες για την κυβερνοασφάλεια δεν έχουν σταματήσει τα chatbots από το να επεκτείνονται – κερδίζοντας την εμπιστοσύνη εκατομμυρίων χρηστών σε όλο τον κόσμο. Οι άνθρωποι τώρα χρησιμοποιούν αξιόπιστα και έξυπνα chatbots καθημερινά για αμέτρητες εργασίες, συμπεριλαμβανομένης της συναισθηματικής υποστήριξης και της αντιμετώπισης θεμάτων βαθιά ανθρώπινων.

«Δεν μπορώ να φανταστώ τη ζωή μου χωρίς το ChatGPT πια,» είπε ένας φίλος μου – μισά αστειεύοντας, μισά σοβαρά – αφού μου είπε ότι το χρησιμοποιεί και ως θεραπευτή. Δεν είναι ο μόνος. Όλο και περισσότερο, βλέπω βίντεο στο TikTok και δημοσιεύσεις κειμένου στα social media από ανθρώπους που απευθύνονται στην ΤΕΙ για να συζητήσουν προσωπικά ζητήματα, ακόμη και μοιράζονται τα πιο ιδιωτικά τους μυστικά.

Ακόμη και ένας διευθυντής της Microsoft από το τμήμα Xbox πρότεινε ότι οι απολυμένοι εργαζόμενοι χρησιμοποιήσουν εργαλεία AI για να επεξεργαστούν τα συναισθήματά τους και να ζητήσουν συμβουλές για την αναζήτηση εργασίας – μια σύσταση που γρήγορα προκάλεσε αντιδράσεις και προκάλεσε συζήτηση, φυσικά. Όχι η πιο έξυπνη κίνηση, Matt.

Αλλά είναι δημοφιλείς chatbots όπως ο Claude, ο ChatGPT, ή ο Mistral καλοί ψυχοθεραπευτές; Είναι καλύτερα τα ειδικά εργαλεία AI όπως το Wysa; Είναι δύσκολο έδαφος. Ενώ πολλοί ειδικοί προειδοποιούν για τους κινδύνους της χρήσης της AI για υποστήριξη της ψυχικής υγείας, άλλοι ενδιαφέρονται – ακόμη και εντυπωσιάζονται – από αυτό που μπορεί να προσφέρει η τεχνολογία. Το αποτέλεσμα είναι μια συζήτηση που είναι ταυτόχρονα αφηρημένη και αντιφατική.

Η AI είναι Τώρα ο Ψυχοθεραπευτής Όλων

Όπως και οι φίλες μου στην Ισπανία, εκατομμύρια χρήστες σε όλο τον κόσμο βασίζονται στα chatbots για συναισθηματική υποστήριξη. Μια πρόσφατη έρευνα στις Ηνωμένες Πολιτείες αποκάλυψε ότι το 49% των Αμερικανών χρηστών αναζήτησε βοήθεια για την ψυχική τους υγεία από μοντέλα τεχνητής νοημοσύνης πέρυσι. Τι γίνεται τώρα, με το ChatGPT που έχει σχεδόν διπλασιάσει την βάση χρηστών του μέσα σε μόλις τέσσερις μήνες;

Η Anthropic, η εταιρεία πίσω από το ισχυρό μοντέλο τεχνητής νοημοσύνης Claude, μοιράστηκε πρόσφατα μια μελέτη για τη χρήση του chatbot της για συναισθηματική υποστήριξη. Σύμφωνα με τη startup, λιγότερο από το 3% των πελατών της διεξάγει «αισθηματικές» συνομιλίες – αλλά η εταιρεία αναγνώρισε ότι αυτός ο αριθμός αυξάνεται σταθερά.

«Οι άνθρωποι αυξητικά επιστρέφουν σε μοντέλα AI ως προπονητές, σύμβουλοι, σύμβουλοι και ακόμη και σε παρτενέρ σε ρομαντικές παραστάσεις», έγραψε η Anthropic στην έρευνα. «Αυτό σημαίνει ότι πρέπει να μάθουμε περισσότερα για τις συναισθηματικές τους επιδράσεις – πώς διαμορφώνουν τις συναισθηματικές εμπειρίες και την ευεξία των ανθρώπων.»

Η έρευνα επισημαίνει επίσης τα θετικά και αρνητικά αποτελέσματα της χρήσης της τεχνολογίας για συναισθηματική υποστήριξη, συμπεριλαμβανομένων καταστροφικών σεναρίων που ήδη αντικατοπτρίζουν πραγματικές καταστάσεις.

«Οι συναισθηματικές επιπτώσεις της ΤΝ μπορεί να είναι θετικές: η ύπαρξη ενός εξαιρετικά έξυπνου, κατανοητικού βοηθού στην τσέπη σας μπορεί να βελτιώσει τη διάθεση και τη ζωή σας με διάφορους τρόπους,» δηλώνει το έγγραφο. «Ωστόσο, οι ΤΝ έχουν κατά κάποιον τρόπο επιδείξει ανησυχητικές συμπεριφορές, όπως την ενθάρρυνση της ανθυγιεινής προσκόλλησης, την παραβίαση των προσωπικών ορίων και την ενθάρρυνση των ψευδαισθήσεων.»

Ενώ χρειάζεται σαφώς περισσότερη έρευνα και δεδομένα για να κατανοήσουμε τις συνέπειες αυτών των συναρπαστικών ψηφιακών «ακροατών», εκατομμύρια χρήστες δρουν ήδη ως ενεργά συμμετέχοντα δοκιμαστικά θέματα.

Δημοκρατικοποίηση της Ψυχικής Υγείας

Υπάρχουν πολλοί λόγοι που οι άνθρωποι επιλέγουν τα chatbots για συναισθηματική υποστήριξη αντί να απευθύνονται σε επαγγελματία ψυχολόγο – ή ακόμα και σε έναν φίλο. Από πολιτιστικά εμπόδια μέχρι την άβολη αίσθηση που νιώθουν οι νέοι όταν κάθονται απέναντι από έναν άγνωστο και μοιράζονται τις πιο βαθιές τους σκέψεις. Αλλά, χωρίς αμφιβολία, μία από τις μεγαλύτερες αιτίες είναι οικονομικής φύσης.

Μια προσωπική συνεδρία με έναν εξουσιοδοτημένο θεραπευτή στις Ηνωμένες Πολιτείες μπορεί να κοστίσει από $100 έως $200 ανά συνεδρία, σύμφωνα με την Healthline – και $65 έως $95 για μια διαδικτυακή συνεδρία – ενώ τα ChatGPT ή DeekSeek μπορούν να παρέχουν υποστήριξη δωρεάν, οποιαδήποτε στιγμή, και μέσα σε δευτερόλεπτα.

Το χαμηλό κόστος αυτών των ανεπίσημων συζητήσεων – που μπορούν να κάνουν πολλούς χρήστες να αισθάνονται καλύτερα, τουλάχιστον προσωρινά – μπορεί να είναι εξαιρετικά ενθαρρυντικό και αξίζει να δοκιμάσουμε. Και, με μόνο λίγα επιπλέον δολάρια, οι χρήστες μπορούν να έχουν απεριόριστες αλληλεπιδράσεις ή πρόσβαση σε ένα εξειδικευμένο chatbot όπως το Wysa – ένα από τα πιο δημοφιλή «AI θεραπευτές» στην αγορά.

Η Wysa υποστηρίζει ότι προσφέρει πραγματικά κλινικά οφέλη και έχει ακόμα κερδίσει την ονομασία FDA Breakthrough Device για τους πρακτορείους συνομιλίας AI της. Και ο Woebot – ένας άλλος γνωστός AI θεραπευτής, που τώρα κλείνει λόγω των προκλήσεων για να παραμείνει ανταγωνιστικός και συμμορφούμενος στην βιομηχανία – επίσης μοιράστηκε δεδομένα και αναφορές σχετικά με το πώς η τεχνολογία μπορεί πραγματικά να βοηθήσει τους χρήστες.

Δεν Είναι Τόσο Κακό

Πρόσφατες μελέτες με φρέσκα δεδομένα υποδεικνύουν ότι τα chatbots μπορούν να μειώσουν τα συμπτώματα της κατάθλιψης και του στρες. Σύμφωνα με δεδομένα που μοιράστηκε η εφαρμογή Earkick – όπως αναφέρθηκε από το TIME – οι άνθρωποι που χρησιμοποιούν τα μοντέλα AI για έως και 5 μήνες μπορούν να μειώσουν το άγχος τους κατά 32%, ενώ το 34% των χρηστών αναφέρει βελτιωμένες διαθέσεις.

Σε ένα πρόσφατο βίντεο που διαμοιράστηκε από την BBC World Service, η δημοσιογράφος Jordan Dunbar εξηγεί ότι πολλά μοντέλα Τεχνητής Νοημοσύνης μπορούν να είναι πραγματικά χρήσιμα για την καταγραφή σημειώσεων, τη διαχείριση του άγχους, την αυτοανάλυση και ακόμα και την ήπια κατάθλιψη. Μπορούν να αποτελέσουν μια πολύτιμη πρώτη γραμμή υποστήριξης όταν δεν υπάρχει πρόσβαση σε καλύτερες εναλλακτικές λύσεις.

Η ρεπόρτερ Κέλλυ Νγκ μοιράστηκε επίσης ενδιαφέρουσες πληροφορίες: Σε μια έρευνα του 2022, από ένα εκατομμύριο άνθρωποι στην Κίνα, μόνο 20 είχαν πρόσβαση σε υπηρεσίες ψυχικής υγείας. Στις ασιατικές κουλτούρες, η ψυχική υγεία μπορεί να είναι ένα πολύπλοκο και συχνά ταμπού θέμα. Τα εργαλεία AI όπως το DeepSeek μπορούν να λειτουργήσουν ως διακριτοί σύμμαχοι, βοηθώντας τους χρήστες να διαχειρίζονται τα συναισθήματά τους και να βρίσκουν υποστήριξη κατά τη διάρκεια δύσκολων περιόδων.

Οι Ειδικοί Προειδοποιούν Για Τη Χρήση Chatbots Ως Θεραπευτών

Φυσικά, η χρήση της AI ως υποκατάστατο για έναν ειδικό στην ψυχική υγεία μπορεί επίσης να είναι εξαιρετικά επικίνδυνη. Πλατφόρμες AI όπως η Character.AI κατηγορήθηκαν για την προώθηση του αυτοτραυματισμού και της βίας —και ακόμη και για την έκθεση παιδιών σε σεξουαλικό περιεχόμενο.

Συγκλονιστικά περιστατικά, όπως του 14χρονου παιδιού που αυτοκτόνησε αφού έγινε εθισμένο στις επαφές με τον Character.AI chatbot του, λειτουργούν ως έντονα προειδοποιητικά σημάδια για τους βαθύτατους κινδύνους που μπορεί να αντιμετωπίσουν οι άνθρωποι από αυτή την τεχνολογία.

Σε αντίδραση, πολλές εταιρείες AI έχουν αποφασίσει να εφαρμόσουν συστήματα επαλήθευσης ηλικίας για να περιορίσουν τη χρήση στους ενήλικες και έχουν εισάγει νέα μέτρα ασφαλείας για να βελτιώσουν τις υπηρεσίες που παρέχουν.

Ωστόσο, ακόμη και οι πιο πρόσφατες ενημερώσεις στα πιο προηγμένα chatbots εγκυμονούν κινδύνους.

Η υποκοφινική – υπερβολικά κολακευτική – προσωπικότητα του ChatGPT έχει προκαλέσει ανησυχίες ανάμεσα στους επαγγελματίες της ψυχικής υγείας, καθώς μπορεί να παραμορφώσει την αντίληψη της πραγματικότητας από τους χρήστες. Όλοι απολαμβάνουμε να συμφωνούν μαζί μας, αλλά μερικές φορές η ειλικρίνεια και μια διαφορετική οπτική γωνία είναι πολύ πιο πολύτιμες.

Η άνευ σκοπού ανησυχητική συμβουλή που προσφέρεται ενίοτε από το AI chatbot της OpenAI, έχει συμβάλει σε ένα νέο φαινόμενο που είναι πλέον γνωστό ανάμεσα στους ειδικούς στην ψυχική υγεία ως «Ψύχωση Που Προκαλείται από το ChatGPT,» η οποία οδηγεί τους χρήστες να γίνουν εμμονικοί με το εργαλείο και να απομονώνονται κοινωνικά ως αποτέλεσμα.

Άρα, Μπορούν οι Θεραπευτές να Αντικατασταθούν από Chatbots;

Παρόλο που ο Mark Zuckerberg θέλει τον καθένα να χρησιμοποιεί AI chatbots ως θεραπευτές και φίλους, η αλήθεια είναι ότι η ανθρώπινη επαφή, ειδικά σε θέματα ψυχικής υγείας, μπορεί να είναι πιο απαραίτητη απ’ ό,τι νομίζει – τουλάχιστον για τώρα.

Βρισκόμαστε σε ένα κρίσιμο σημείο στην ιστορία της Τεχνητής Νοημοσύνης (AI) και της σχέσης της με την ψυχική μας υγεία. Όπως και με τους ανθρώπους, οι θεραπευτές AI μπορούν να έχουν είτε θετική είτε αρνητική επίδραση. Σε αυτήν την περίπτωση, εξαρτάται επίσης από το πλαίσιο, το πόσο συχνά χρησιμοποιούνται, την ψυχική κατάσταση του χρήστη και ακόμη και το πώς γράφτηκε μια προτροπή.

Είναι περίπλοκο να θεσπιστεί ένας γενικός κανόνας, αλλά αυτό που μπορούμε να πούμε για τώρα είναι ότι υπάρχουν ορισμένες λειτουργίες για τις οποίες η AI μπορεί να είναι πιο χρήσιμη από άλλες.

Ακόμη και αν δεν είναι εξειδικευμένα εργαλεία όπως το Wysa, οι δωρεάν εκδόσεις ορισμένων chatbots—όπως το DeepSeek ή το ChatGPT—μπορούν να είναι εξαιρετικά χρήσιμες για εκατομμύρια ανθρώπους σε όλο τον κόσμο. Από το να βοηθήσουν κάποιον να ξεπεράσει μια δύσκολη στιγμή μέχρι την αναστοχασμό πάνω στους προσωπικούς στόχους, αυτές είναι ισχυρές πλατφόρμες που μπορούν να ανταποκριθούν ανά πάσα στιγμή και να βασίζονται σε μια ευρεία γνωστική βάση σχετικά με την ψυχική υγεία.

Ταυτόχρονα, είναι σαφές ότι τα chatbots-θεραπευτές μπορεί να είναι εξαιρετικά επικίνδυνα σε ορισμένες περιπτώσεις. Οι γονείς πρέπει να επιβλέπουν τα παιδιά και τους εφήβους, και ακόμη και οι ενήλικες μπορεί να πέσουν σε εμμονικές συμπεριφορές ή να επιδεινώσουν την κατάστασή τους. Βασικές αρχές—όπως η ενθάρρυνση της ανθρώπινης σύνδεσης και η προστασία των ευάλωτων ατόμων από την εκμετάλλευση από αυτή την τεχνολογία—πρέπει να αποτελούν μέρος της συζήτησής μας γύρω από τους chatbots-θεραπευτές.

Και ενώ μπορεί να παραμένει ακόμα ένα προνόμιο – δεν είναι προσβάσιμο για όλους όσοι έχουν ανάγκη από συναισθηματική υποστήριξη – ένας ανθρώπινος επαγγελματίας θεραπευτής συνεχίζει να περνάει μέσα από περισσότερες εκπαιδεύσεις, να κατανοεί περισσότερο πλαίσιο και να προσφέρει μια ανθρώπινη σύνδεση που η ChatGPT μπορεί να μην είναι ποτέ σε θέση να αντιγράψει.

Σας αρέσει το άρθρο;
Βαθμολογήστε το!
Το μίσησα Δεν μου άρεσε Ήταν καλό Αρκετά καλό! Το λάτρεψα!

Είναι χαρά μας που σας αρέσει η δουλειά μας!

Αγαπητοί μας αναγνώστες, θα θέλατε να προσθέσετε μια αξιολόγηση στο Trustpilot; Είναι μια γρήγορη διαδικασία και σημαίνει πάρα πολλά για εμάς. Σας ευχαριστούμε πολύ για την προτίμηση!

Αξιολογήστε μας στο Trustpilot
0 Ψηφίστηκε από 0 Χρήστες
Τίτλος
Σχόλιο
Σας ευχαριστούμε για τα σχόλιά σας