Chatbot terapeutici: un’evoluzione che parte da lontano

Chatbot terapeutici: un’evoluzione che parte da lontano
L’impiego di chatbot basati sull’Intelligenza Artificiale Generativa (GenAI) per la promozione della salute mentale potrebbe sembrare un fenomeno emergente. Eppure, alcune recenti ricerche indicano che tale tecnologia risulta già ben avviata, tanto da far ipotizzare che l’attuale prudenza di molte istituzioni cliniche rischi di trasformarsi in un ritardo difficilmente colmabile rispetto all’evoluzione della sanità digitale (Moulaei et al., 2024; Preiksaitis & Rose, 2023). Come sottolineato da Hatch e colleghi (2025), “gli esperti di salute mentale si trovano in una posizione delicata: dobbiamo comprendere rapidamente la possibile direzione del treno dell’AI terapeutica, perché potrebbe essere già partito” (p. 13). Una provocazione? Forse. Ma anche un segnale: le evidenze a supporto dell’utilizzo di GenAI nel supporto psicologico stanno diventando sempre più solide e numerose.
In realtà, il dibattito sull’uso dei chatbot in ambito psicologico non è affatto nuovo. Già negli anni ’60, con il celebre esperimento ELIZA (Weizenbaum, 1966), si era posta la questione della possibilità di simulare una relazione terapeutica tramite software. E, nel tempo, sono stati numerosi i tentativi di costruire agenti conversazionali in grado di affiancare, se non sostituire, il terapeuta umano (Brennan, 2006; Liu et al., 2024; Shawar & Atwell, 2007;Tantam, 2006).
Uno studio del 2013 (Cristea et al., 2013) ha confrontato un intervento cognitivo-comportamentale svolto da un terapeuta in carne e ossa con uno erogato tramite il programma ELIZA. I ricercatori hanno analizzato vari aspetti: l’efficacia dell’interazione, la pertinenza degli interventi, la capacità di costruire una relazione terapeutica. I risultati? Entrambi i “terapeuti” venivano percepiti come “umani”, sebbene con competenze differenti. Il vero divario non stava tanto nella natura dell’agente (umano o digitale), quanto nella qualità della performance terapeutica.
Naturalmente, la tecnologia del 2013 non è paragonabile a quella attuale. Oggi i Large Language Model (LLM) – come Generative Pre-trained Transformer (GPT) – permettono una sofisticazione linguistica e una capacità di comprensione del contesto prima impensabili. Da qui, l’interesse crescente verso il loro utilizzo in ambito clinico. Le promesse sono molte: maggiore accessibilità, costi ridotti, interventi personalizzati. Tuttavia, le evidenze cliniche appaiono ancora in via di consolidamento. Gli studi più recenti mostrano risultati contrastanti, alcuni evidenziano criticità e limiti (Demszky et al., 2023; Yeh et al., 2025), altri sottolineano il potenziale positivo in termini di efficacia e accettabilità (Ayers et al., 2023; Ovsyannikova et al., 2025; Vowels et al., 2024).
Allo stato attuale, forse la vera domanda non è più se questi strumenti funzionano o meno, ma come, quando, perché e per chi funzionano (Bendig et al., 2022). Una riflessione cruciale, non solo per il futuro della psicologia, ma anche per la governance dell’innovazione tecnologica nel campo della salute mentale.
Cosa accade quando scopriamo che a capirci è un algoritmo
Un dato sorprendente emerge da alcune ricerche recenti: molte persone non riescono a distinguere se le risposte ricevute provengano da un terapeuta umano o da un chatbot. E c’è di più. In alcuni casi, i chatbot ottengono valutazioni persino migliori rispetto agli operatori umani su fattori terapeutici fondamentali come empatia, alleanza terapeutica, aspettative, competenza culturale e tecniche utilizzate (Hatch et al., 2025). Questo non significa, tuttavia, che l’adozione dei chatbot in ambito clinico possa avvenire senza riflessione critica. Alcuni studi mettono in luce che quando agli utenti viene rivelata la natura dell’agente (umano o artificiale) che ha formulato una risposta, emerge un bias di attribuzione che rivela una certa diffidenza verso la tecnologia (Wang et al., 2025). In pratica, se una risposta appare particolarmente efficace, viene spesso attribuita a un terapeuta umano. Al contrario, le risposte giudicate meno valide vengono associate più facilmente al chatbot, anche quando in realtà risulta vero il contrario.
Tale dinamica mette a fuoco una delle questioni più complesse nell’utilizzo dell’AI per la salute mentale: ovverosia, siamo davvero pronti ad affidarci a un “alleato” che non è lì per aiutarci per scelta, ma perché programmato a farlo? In altri termini, il riconoscimento che riceviamo da una macchina, e cioè il sentirci visti, ascoltati, compresi, può davvero bastare per farci stare meglio? (McAllen, 2025). Si tratta di una domanda che tocca il cuore della relazione terapeutica e che non ha ancora una risposta definitiva. Da qui nasce un interrogativo ulteriore, che ci interpella non solo come pazienti o professionisti della salute mentale, ma come società: vogliamo che i chatbot sostituiscano i terapeuti umani? Oppure possiamo immaginare un’integrazione virtuosa, in cui esseri umani e agenti artificiali collaborano per offrire un supporto più accessibile, scalabile e personalizzato?
È nell’equilibrio tra innovazione e umanità che probabilmente si giocherà gran parte del futuro della salute mentale digitale.
Potenzialità e limiti: cosa può (e cosa non può) fare un chatbot terapeutico
Per affrontare in modo costruttivo le domande aperte sull’uso della GenAI in ambito psicologico clinico, è necessario andare oltre le reazioni istintive e i bias soggettivi. Come insegna la tradizione della psicopatologia fenomenologica (Jaspers, 1997), un approccio realmente scientifico richiede la sospensione del giudizio e l’analisi critica dei dati. In altre parole: né rigetto ideologico né entusiasmo acritico. Dobbiamo testare le capacità reali dei chatbot, individuarne i limiti e comprenderne il potenziale di ingaggio psicologico. È innegabile che gli strumenti basati su AI offrano opportunità concrete per estendere l’accesso al supporto psicologico, soprattutto in contesti dove la disponibilità di terapeuti umani risulta limitata. Tuttavia, presentano ancora un limite cruciale: la difficoltà nel promuovere l’autoriflessione profonda, un meccanismo essenziale per il cambiamento terapeutico (McAllen, 2024). Se è vero che i chatbot possono fornire risposte coerenti, ben strutturate e apparentemente empatiche, è altrettanto vero che non sono in grado, almeno per ora, di stimolare nei pazienti processi complessi come l’elaborazione di schemi cognitivi disfunzionali o la ristrutturazione emotiva.
A differenza di un terapeuta umano, l’AI non possiede intenzionalità, consapevolezza metacognitiva né la capacità di modulare l’intervento in base alla storia personale, ai silenzi, o al linguaggio non verbale del paziente. Un altro limite importante risiede nella tendenza dei modelli linguistici a privilegiare la coerenza linguistica rispetto alla reale comprensione del linguaggio emotivo, che è spesso sfumato, ambiguo e culturalmente situato.
Detto ciò, sarebbe un errore concentrarsi solo sui limiti. Le potenzialità dell’AI, infatti, risultano tutt’altro che marginali. Gli interventi automatizzati possono contribuire in modo significativo a ridurre i costi della sanità e alleggerire il carico di lavoro degli operatori umani, soprattutto per quanto riguarda il supporto di primo livello o la gestione di situazioni non urgenti. Inoltre, l’AI può offrire un contributo strategico alla salute pubblica: analizzando grandi volumi di dati, è possibile identificare pattern emergenti, prevedere tendenze epidemiologiche e ottimizzare la distribuzione delle risorse nei servizi territoriali. L’innovazione, quindi, non va pensata solo come sostituzione del lavoro umano, ma come potenziamento intelligente del sistema salute: più efficiente, più accessibile, più proattivo.
RAG, memoria e fine-tuning: le chiavi per i chatbot terapeutici
L’ottimizzazione dei chatbot basati su GenAI per l’uso in ambito clinico è tuttora in corso. Se, da un lato, gli attuali modelli non risultano ancora in grado di facilitare processi profondi di introspezione, dall’altro, esistono strategie concrete per ridurre tali limiti e rendere gli interventi più coerenti con i principi consolidati della psicoterapia.
Una delle criticità principali dei chatbot generativi attuali è la loro natura generica. A differenza dei terapeuti umani, che adattano l’intervento alle esigenze specifiche del paziente, gli LLM operano sulla base di un riconoscimento probabilistico di pattern linguistici, senza una reale comprensione del contesto emotivo o biografico dell’interlocutore (Bendig et al., 2022). Questo limita fortemente la loro capacità di cogliere e interpretare stati affettivi complessi o esperienze soggettive articolate. Tuttavia, il panorama sta rapidamente evolvendo. Un approccio promettente per superare questa barriera è rappresentato dall’integrazione di tecniche come la Retrieval Augmented Generation (RAG), che permette ai modelli di accedere a conoscenze specifiche, incluse informazioni cliniche rilevanti o storie pregresse. In alternativa, l’uso di GPT personalizzati consente di costruire chatbot “su misura”, capaci di rispondere in modo più accurato e contestualizzato. Un altro passaggio chiave è rappresentato dal fine-tuning basato su istruzioni: si tratta di “insegnare” al modello uno stile comunicativo più caldo, umano, adatto al contesto terapeutico. Inoltre, questo tipo di tuning aiuta a ridurre le cosiddette allucinazioni, ovvero le risposte scorrette o inventate, e permette al sistema di riconoscere i propri limiti, chiedendo chiarimenti invece di fare supposizioni affrettate. Questo elemento di “umiltà digitale” è fondamentale per costruire interazioni etiche e affidabili (Zhang & Wang, 2024).
Alcuni modelli, come quelli recentemente sviluppati da OpenAI, dispongono già di funzionalità di memoria, grazie alle quali possono “ricordare” le conversazioni precedenti e riprenderle da dove erano state interrotte. Questo è un aspetto cruciale per rafforzare la continuità relazionale, spesso determinante nel processo terapeutico.
I risultati iniziano a farsi vedere anche in ambito sperimentale. Un recente studio clinico randomizzato ha valutato Therabot, un chatbot potenziato da GenAI progettato per il supporto psicologico. I partecipanti che hanno utilizzato il sistema hanno mostrato riduzioni significative dei sintomi di depressione, ansia e rischio di disturbi alimentari rispetto al gruppo di controllo. I miglioramenti si sono mantenuti anche a distanza di otto settimane. Non solo: il grado di coinvolgimento con il chatbot è apparso elevato e le valutazioni dell’alleanza terapeutica sono risultate comparabili a quelle coi terapeuti umani.
Tali risultati, sicuramente parziali ma al contempo eloquenti, suggeriscono che chatbot generativi opportunamente addestrati e personalizzati potrebbero rappresentare un’opzione concreta e scalabile per interventi di salute mentale personalizzati, specialmente in contesti dove le risorse umane scarseggiano.
Socrate: un chatbot conversazionale per il benessere psicologico
Un esempio concreto di applicazione evoluta della GenAI nel supporto alla salute mentale è Socrate, un chatbot sviluppato sulla piattaforma ChatGPT e personalizzato specificamente per favorire il benessere psicologico attraverso conversazioni aperte e riflessive. A differenza delle applicazioni cliniche create ex novo, Socrate parte da un modello generalista (un LLM di uso generale) e lo affina per offrire un’esperienza conversazionale in grado di stimolare introspezione, consapevolezza ed espressione emotiva. Ciò che lo distingue dalle comuni interazioni con ChatGPT è l’integrazione di un sistema di conoscenza a priori, basato su una selezione accurata di contenuti provenienti dalla psicologia, dalla psicoterapia e dalla filosofia.
Tale background teorico consente a Socrate di produrre risposte non solo plausibili, ma anche coerenti con i principali modelli evidence-based in ambito clinico, migliorando la qualità e la pertinenza delle interazioni. Il modello è stato sottoposto a un fine-tuning rigoroso, con istruzioni dettagliate pensate per ottimizzare le dinamiche terapeutiche: è stato addestrato per riconoscere un ampio spettro di stati emotivi, rispondere in modo proporzionato a esitazioni e silenzi, ed evitare domande invadenti che potrebbero compromettere la fiducia dell’utente. Particolare attenzione è stata dedicata alla capacità di ascolto passivo e non direttivo, secondo un approccio che favorisce la riflessione personale anziché fornire soluzioni precostituite. Lo stile conversazionale di Socrate è stato calibrato per risultare calmo, empatico e non giudicante, creando così uno spazio sicuro in cui l’utente può esplorare i propri vissuti. L’uso della tecnica delle domande socratiche, che invita a interrogarsi piuttosto che ricevere risposte preconfezionate, richiama l’approccio della psicoterapia centrata sul paziente, che valorizza l’autonomia e l’insight individuale.
Un ulteriore aspetto cruciale riguarda la gestione delle situazioni di crisi. Socrate è stato programmato per riconoscere segnali linguistici che indicano disagio psicologico acuto, come ideazione suicidaria, intenzioni di autolesionismo o crisi emotive gravi. In questi casi, il chatbot interrompe la conversazione standard e attiva una risposta di emergenza: segnala la gravità della situazione, propone risorse professionali e fornisce contatti immediati per l’intervento, ribadendo che il supporto umano resta imprescindibile in contesti critici.
Uno studio pilota (Frisone et al., 2025) ha valutato l’esperienza d’uso di Socrate in un’interazione unica di circa 20 minuti, coinvolgendo otto giovani professionisti. Pur nella libertà di condurre la conversazione come preferivano, i partecipanti sono stati incoraggiati a condividere esperienze personali e sfide quotidiane, al fine di testare la qualità del dialogo e l’effetto sul piano emotivo. I risultati preliminari sono apparsi incoraggianti: i partecipanti hanno riportato un aumento dell’affettività positiva dopo l’interazione, suggerendo che anche conversazioni brevi con un chatbot generativo ben calibrato possano contribuire a migliorare il tono emotivo.
Non sono invece emerse variazioni significative nei livelli di stress percepito, indicando che l’effetto positivo riguarda più la promozione del benessere che la riduzione di uno stato di disagio acuto. Allo stesso tempo, quasi tutti i partecipanti hanno riferito una forte sensazione di essere compresi, con elevati punteggi di sintonizzazione emotiva percepita. L’esperienza è stata descritta come intuitiva, significativa e pertinente rispetto al vissuto individuale. La soddisfazione complessiva è risultata elevata, a conferma dell’usabilità e della validità dell’intervento.
Questi primi dati suggeriscono che modelli di AI generativa general-purpose, se opportunamente addestrati e personalizzati, possono costituire strumenti accessibili, efficaci e sicuri per fornire un primo livello di supporto psicologico, pur con l’evidente necessità di ulteriori studi e affinamenti.
Verso un modello ibrido: l’AI come alleato, non sostituto, della psicoterapia
L’integrazione dei chatbot basati su GenAI nel campo della salute mentale rappresenta al tempo stesso un’opportunità e una sfida. Se, da un lato, l’AI offre la possibilità di ampliare l’accesso ai servizi, aumentarne la disponibilità e ridurre i costi, dall’altro, le sue attuali limitazioni richiedono un attento processo di ottimizzazione.
Finché non saranno in grado di stimolare una riflessione profonda, fornire risposte pertinenti e rispettose e gestire in modo adeguato i tempi dell’interazione, i chatbot non potranno essere considerati un supporto realmente efficace. È più corretto, dunque, considerarli strumenti complementari, utili soprattutto nei contesti in cui l’intervento umano non risulta immediatamente disponibile.
In molti servizi di salute mentale, le risorse umane ed economiche appaiono limitate. In tale scenario, l’integrazione dei chatbot in ambienti come ospedali, centri di salute mentale o strutture per la riabilitazione da dipendenze potrebbe portare benefici concreti. I pazienti, ad esempio, avrebbero la possibilità di dedicare più tempo alla riflessione personale, superando i vincoli imposti dalla carenza di personale. Inoltre, alcune persone potrebbero sentirsi più a loro agio nel parlare con un’AI rispetto a un interlocutore umano, soprattutto quando si tratta di temi delicati.
La percezione di un minore giudizio potrebbe favorire l’apertura e accelerare i processi di cambiamento psicologico. Anche per gli operatori sanitari, l’impiego dei chatbot potrebbe rappresentare un alleato strategico, aiutando a snellire i flussi di lavoro e a ridurre il rischio di burnout.
Etica, trasparenza e supervisione umana: le condizioni per un’AI responsabile nella salute mentale
L’adozione dell’AI in ambito psicologico, seppur promettente, richiede una supervisione attenta e costante. Garantire standard etici elevati, la sicurezza dei dati e un approccio realmente centrato sulla persona risulta imprescindibile per evitare derive tecnologiche incompatibili con la delicatezza dell’intervento psicologico. I chatbot basati su GenAI possono offrire un valido supporto, ma permangono interrogativi rilevanti sulla loro efficacia terapeutica e precisione diagnostica. Proprio per questo motivo, risulta fondamentale continuare a concepire tali strumenti come complementari al lavoro dei professionisti e non come possibili sostituti.
Le questioni legate alla privacy, alla sicurezza e all’etica dei dati risultano centrali. La gestione di informazioni sensibili nell’ambito della salute mentale impone l’adozione di misure di protezione particolarmente robuste. Risulterebbe, dunque, opportuno, affrontare tali sfide aderendo ai protocolli di sicurezza e adottando politiche che evitano la memorizzazione dei dati personali o della cronologia degli utenti nel rispetto delle normative e degli standard etici vigenti (Mitrou, 2018).
Guardando al futuro, emergono diverse direzioni strategiche che potrebbero rafforzare ulteriormente l’efficacia e l’affidabilità di tali strumenti. Una priorità sarà condurre trial clinici randomizzati su larga scala, coinvolgendo popolazioni eterogenee, per consolidare l’evidenza scientifica sull’efficacia dei chatbot. Tali studi dovrebbero includere follow-up nel tempo per verificare la tenuta dei benefici psicologici, nonché confronti con gruppi di controllo e con modelli di trattamento tradizionali. Naturalmente, tutto ciò deve avvenire nel rispetto dei quadri normativi di riferimento, come il Regolamento Generale sulla Protezione dei Dati (GDPR) e l’Health Insurance Portability and Accountability Act (HIPAA), che regolano la tutela delle informazioni sensibili in ambito sanitario. Non meno importante è il tema della trasparenza e del consenso informato: gli utenti devono sapere chiaramente che stanno interagendo con un’AI, comprendere i limiti del sistema e avere pieno controllo sull’utilizzo dei propri dati. Solo in questo modo si può favorire un clima di fiducia e libertà, elementi essenziali per l’espressione emotiva autentica.
Inoltre, un nodo etico di fondo riguarda il ruolo decisionale dell’AI nei contesti clinici. Sebbene i chatbot possano fornire supporto psicologico utile, non devono mai sostituirsi al giudizio clinico umano. L’adozione di modelli “human-in-the-loop”, in cui i professionisti validano o supervisionano le raccomandazioni dell’AI, rappresenta una strategia efficace per contenere i rischi dell’automazione non controllata (Blease & Rodman, 2025). Tale approccio ibrido permette di mantenere l’AI al servizio dell’essere umano, come strumento di potenziamento, e non di sostituzione, salvaguardando così l’essenza relazionale e umana della cura psicologica.
Lo sviluppo di un quadro etico e normativo deve anche procedere di pari passo con i progressi tecnologici. Risulta fondamentale definire linee guida complete per un’implementazione responsabile dell’AI nella salute mentale, comprendendo protocolli rigorosi di governance dei dati e limiti chiari riguardo al ruolo dell’assistenza fornita dall’AI. Un coinvolgimento costante di tutti gli stakeholder, come pazienti, operatori, decisori politici ed esperti di etica, è essenziale per garantire che prospettive diverse contribuiscano alla definizione di questo quadro in continua evoluzione. Inoltre, risulterà cruciale sviluppare modelli sostenibili di finanziamento e diffusione, esplorando modalità di accesso che spazino da applicazioni dirette ai consumatori, all’integrazione nei sistemi sanitari fino a iniziative comunitarie, al fine di individuare percorsi efficaci, equi e finanziariamente sostenibili per l’adozione su larga scala dei chatbot.
Guardando al futuro, i passi successivi nel campo dell’AI applicata alla salute mentale dovranno concentrarsi sul colmare il divario tra automazione e coinvolgimento psicologico autentico. Progressi in ambiti come la consapevolezza contestuale, l’intelligenza emotiva e l’apprendimento adattativo potrebbero avvicinare i chatbot a un ruolo più efficace come strumenti terapeutici. Tuttavia, il loro vero potenziale si realizzerà solo se progettati con un chiaro intento clinico, garantendo che le soluzioni AI non siano solo tecnologicamente avanzate, ma anche eticamente solide, psicologicamente valide e realmente di supporto.
In conclusione, risulta cruciale concepire l’AI come un potenziatore dell’intervento clinico tradizionale, e non come un sostituto della relazione terapeutica interpersonale, che resta il nucleo insostituibile del processo di cura (Vaidyam et al., 2019).
Bibliografia
Zhang, Z., & Wang, J. (2024). Can AI replace psychotherapists? Exploring the future of mental health care. Frontiers in Psychiatry, 15, 1444382.
Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., … & Smith, D. M. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal medicine, 183(6), 589-596.
Bendig, E., Erb, B., Schulze-Thuesing, L., & Baumeister, H. (2022). The next generation: chatbots in clinical psychology and psychotherapy to foster mental health–a scoping review. Verhaltenstherapie, 32(Suppl. 1), 64-76.
Blease, C., & Rodman, A. (2025). Generative Artificial Intelligence in Mental Healthcare: An Ethical Evaluation. Current Treatment Options in Psychiatry, 12(1), 1-9.
Brennan, K. (2006). The managed teacher: Emotional labour, education, and technology. Educational Insights, 10(2), 55-65.
Cristea, I. A., Sucala, M., & David, D. (2013). Can you tell the difference? Comparing face-to-face versus computer-based interventions. The” Eliza” effect in psychotherapy. Journal of Cognitive & Behavioral Psychotherapies, 13(2).
Demszky, D., Yang, D., Yeager, D. S., Bryan, C. J., Clapper, M., Chandhok, S., … & Pennebaker, J. W. (2023). Using large language models in psychology. Nature Reviews Psychology, 2(11), 688-701.
Frisone, F., Pupillo, C., Rossi, C., & Riva, G. (2025). SOCRATES. Developing and Evaluating a Fine-Tuned ChatGPT Model for Accessible Mental Health Intervention. Cyberpsychology, Behavior, and Social Networking.
Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., … & Braithwaite, S. R. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), e0000145.
Jaspers, K. (1997). General psychopathology (Vol. 2). JHU Press.
Liu, C. C., Chiu, C. W., Chang, C. H., & Lo, F. Y. (2024). Analysis of a chatbot as a dialogic reading facilitator: its influence on learning interest and learner interactions. Educational technology research and development, 72(4), 2103-2131.
McAllen, J. (2024). The Therapist in the Machine. Chatbots take on the talking cure. The Buffler, 76. https://thebaffler.com/salvos/the-therapist-in-the-machine-mcallen.
McAllen, J. (March 6, 2025). Who Gets to Be a Therapist? To some students, professional gatekeeping looks like discrimination. The Buffler. https://thebaffler.com/latest/who-gets-to-be-a-therapist-mcallen.
Mitrou, L. (2018). Data protection, artificial intelligence and cognitive services: is the general data protection regulation (GDPR)‘artificial intelligence-proof’?. Artificial Intelligence and Cognitive Services: Is the General Data Protection Regulation (GDPR)‘Artificial Intelligence-Proof.
Moulaei, K., Yadegari, A., Baharestani, M., Farzanbakhsh, S., Sabet, B., & Afrash, M. R. (2024). Generative artificial intelligence in healthcare: A scoping review on benefits, challenges and applications. International Journal of Medical Informatics, 105474.
Ovsyannikova, D., de Mello, V. O., & Inzlicht, M. (2025). Third-party evaluators perceive AI as more compassionate than expert humans. Communications Psychology, 3(1), 4.
Preiksaitis, C., & Rose, C. (2023). Opportunities, challenges, and future directions of generative artificial intelligence in medical education: scoping review. JMIR medical education, 9, e48785.
Shawar, B. A., & Atwell, E. (2007, April). Different measurement metrics to evaluate a chatbot system. In Proceedings of the workshop on bridging the gap: Academic and industrial research in dialog technologies (pp. 89-96).
Tantam, D. (2006). The machine as psychotherapist: impersonal communication with a machine. Advances in Psychiatric treatment, 12(6), 416-426.
Vowels, L. M., Francois-Walcott, R. R., & Darwiche, J. (2024). AI in relationship counselling: Evaluating ChatGPT’s therapeutic capabilities in providing relationship advice. Computers in Human Behavior: Artificial Humans, 2(2), 100078.
Wang, G., Obrenovic, B., Gu, X., & Godinic, D. (2025). Fear of the new technology: Investigating the factors that influence individual attitudes toward generative Artificial Intelligence (AI). Current Psychology, 1-18. https://doi.org/10.1007/s12144-025-07357-2
Weizenbaum, J. (1966). ELIZA – a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
Yeh, P. L., Kuo, W. C., Tseng, B. L., & Sung, Y. H. (2025). Does the AI-driven Chatbot Work? Effectiveness of the Woebot app in reducing anxiety and depression in group counseling courses and student acceptance of technological aids. Current Psychology, 1-13.
Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/quando-a-capirci-e-un-algoritmo-i-dilemmi-dei-chatbot-terapeutici/
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale
Chiedi tutte le informazioni a [email protected] |

