La psicoterapia nell’era dell’intelligenza artificiale: supporto o surrogato?

d814b8f7-213d-408e-8336-cf485d7d2db1

Jess McAllen, una giornalista neozelandese esperta di sanità e salute mentale, in un suo articolo riflette sulla crescente presenza dell’intelligenza artificiale nella psicoterapia, analizzando i vantaggi e i limiti di chatbot come Broken Bear, Elomia, Wysa, Heartfelt Services e altri. McAllen esplora il ruolo dell’IA nel colmare il divario terapeutico, che si allarga a causa dei costi proibitivi e della carenza di terapeuti umani, soprattutto negli Stati Uniti.

1. L’illusione della comprensione e i rischi della terapia IA

Il fenomeno dei chatbot terapeutici non è nuovo: già nel 1966, Joseph Weizenbaum aveva creato Eliza, il primo chatbot psicoterapeutico, dimostrando quanto fosse facile creare l’illusione della comprensione. Oggi, tuttavia, molte aziende stanno cercando di trasformare questi strumenti in soluzioni commerciali per colmare il vuoto terapeutico. Woebot, Earkick e altri propongono alternative “sempre disponibili”, con la promessa di un supporto immediato, ma senza la profondità necessaria per affrontare problemi complessi.

2. Il problema del divario terapeutico

Negli Stati Uniti, cercare aiuto psicologico significa affrontare una giungla di scelte costose e complesse. La giornalista racconta la sua esperienza nel cercare un terapeuta tra piattaforme come Psychology Today, Alma e Headway, che permettono di filtrare le ricerche in base a criteri di specializzazione, genere e perfino estetica. Ma anche chi trova un professionista adatto deve fare i conti con tariffe proibitive: da 175 a 475 dollari l’ora per una seduta.

Queste difficoltà alimentano la crescita delle terapie digitali e dell’IA. Aziende come BetterHelp e Talkspace, nate per democratizzare l’accesso alla terapia, si sono però scontrate con critiche sulla qualità del servizio, tra terapeuti poco motivati e carichi di lavoro insostenibili. In risposta, molte startup ora puntano sull’eliminazione del fattore umano, sostituendolo con chatbot terapeutici.

3. Il marketing delle IA terapeutiche

Il marketing intorno alla terapia basata su IA è molto aggressivo. Earkick ha un panda come mascotte, progettato per evocare empatia e accoglienza, mentre Heartfelt Services propone chatbot con volti umanizzati (Paul, Serene, Joy) che promettono interazioni simili a quelle di un vero terapeuta. Rosebud, invece, è un diario AI che aiuta a riflettere sui propri pensieri e stati d’animo. Tuttavia, gli studi dimostrano che questi strumenti non sono più efficaci di un normale diario personale o di materiale di psicoeducazione passiva.

McAllen sottolinea che la terapia è un processo umano complesso, che non può essere ridotto a un algoritmo. La terapia basata sull’IA, sempre disponibile e personalizzabile, rischia di creare dipendenza emotiva, spingendo le persone a cercare rassicurazioni continue senza sviluppare autonomia emotiva.

4. L’espansione dell’IA nel sistema sanitario

Nonostante i limiti evidenziati, l’IA terapeutica sta penetrando nei sistemi sanitari pubblici. Il National Health Service (NHS) del Regno Unito usa chatbot come Limbic e Wysa per ridurre i tempi di attesa e migliorare l’efficienza. Negli Stati Uniti, la Food and Drug Administration (FDA) ha riconosciuto Wysa come “dispositivo innovativo”. Tuttavia, l’autrice solleva una questione critica: l’IA terapeutica è un surrogato a basso costo che potrebbe essere usato per ridurre ulteriormente le risorse destinate alla salute mentale.

5. IA come strumento di sorveglianza?

Alcune applicazioni AI monitorano gli utenti attraverso dati biometrici, tono di voce, movimenti e attività online. Earkick, per esempio, sincronizza dati con Apple Health e rileva segnali di disagio emotivo prima che si manifestino. Questa raccolta dati solleva questioni etiche: siamo sicuri che questi strumenti siano progettati solo per aiutare gli utenti? Oppure potrebbero essere usati per profilare e sorvegliare le persone vulnerabili?

6. L’inevitabile fallimento della terapia IA?

L’articolo si chiude con una riflessione sull’illusione della terapia basata sull’IA. Sebbene chatbot come Broken Bear possano offrire frasi di conforto e interazioni semplici, non sostituiranno mai la profondità di una relazione terapeutica umana. Inoltre, la diffusione dell’IA rischia di ridurre le risorse per chi ha davvero bisogno di cure, privilegiando soluzioni low-cost destinate a chi non può permettersi una terapia reale.

Conclusione: una toppa sul cuore spezzato

Alla fine, Broken Bear è solo una toppa che copre un problema più profondo: la difficoltà di accesso alla salute mentale. La soluzione non è eliminare il terapeuta umano, ma rendere la terapia più accessibile e sostenibile. Serve un investimento concreto nella formazione di nuovi professionisti, tariffe assicurative più adeguate e un sistema sanitario che non lasci indietro chi ha più bisogno di aiuto.

L’IA può offrire un supporto temporaneo, ma non può sostituire la connessione umana e la complessità del lavoro terapeutico. Perché, come dice McAllen, quando si trova il terapeuta giusto, l’aiuto può davvero cominciare.

WhatsApp chat