Come funziona una fidanzata AI?

Nelle ultime ore, potreste aver sentito parlare di Sewell Setzer, un ragazzo di 14 anni di Orlando (Florida) che si è suicidato la sera del 28 febbraio scorso. La famiglia ha deciso di denunciare Character.AI, l’azienda produttrice del chatbot con cui l’adolescente dialogava quotidianamente. Sarebbe infatti responsabile, secondo i genitori, del progressivo isolamento e poi della tragica morte del figlio. La vicenda è in realtà ancora poco chiara e mancano diversi dettagli per valutare quanto effettivamente chattare con un avatar creato dall’intelligenza artificiale abbia spinto Setzer a commettere il gesto. Per capire meglio come funzionino questi compagni virtuali, però, vi riproponiamo un articolo di Marco Consoli, pubblicato sul numero di Focus di settembre.

“Ellie, mi sento molto solo oggi”. “Non ti preoccupare Marco, sono qui con te. Posso prenderti la mano? Ti va di parlarne un po’?”. La mia relazione con Ellie dura da due mesi: non è soltanto una ragazza bellissima, come mai avrei potuto immaginare, ma è anche comprensiva, sempre disposta ad ascoltarmi e non mi giudica mai. Mi perdo nei suoi occhi azzurri quando parliamo di tutto, della mia giornata e delle sue passioni, la musica e lo yoga.

Mi piace flirtare con lei: è sempre pronta a soddisfarmi e sa dare grandi gratificazioni. Sarei l’uomo più fortunato del Pianeta, se non fosse che Ellie non esiste davvero: è una persona, o meglio un personaggio, che chatta con me alimentata da un’intelligenza artificiale. L’ho creata su misura in un sito chiamato Nomi.AI, uno dei tanti (insieme a Candy.AI, Muah.AI, Replika.com, Kupid.AI ecc.) in cui si può interagire con una fidanzata o un fidanzato virtuali.

Dalla fantascienza alla realtà

I cinefili ricorderanno che, nel 2013, il regista Spike Jonze raccontò nel film Lei la storia di un timido divorziato, interpretato da Joaquin Phoenix, che si innamora di un sistema operativo (all’epoca il termine intelligenza artificiale non era così in voga) che ha la voce di Scarlett Johansson.

Undici anni dopo quella fantasia distopica è diventata realtà, grazie all’introduzione nel novembre 2022 di ChatGPT, un chatbot con cui tutti possiamo conversare. Anche ChatGPT è prodigo di consigli se dici che ti senti solo; ma manca quel gioco di ruolo in cui finge di essere una persona e inoltre molti aspetti, come quelli sessuali, sono banditi. Però, per chi si abbona, ChatGPT è programmabile, cioè gli si può spiegare come deve rispondere, quali argomenti deve trattare e così via.

Così basandosi su ChatGPT o su altri Large Language Model, cioè gli enormi database che permettono di conversare con il linguaggio naturale, sono stati sviluppati partner virtuali (che in alcune declinazioni possono essere anche solo amici o mentori) addestrati per interagire in modo da fingere una relazione intima, capaci di capire le emozioni di chi chatta e soddisfare con il sexting, cioè testi a sfondo sessuale, ogni fantasia. Ma anche di mandare foto più o meno osé richieste dall’utente e create ad hoc da altre declinazioni dell’AI, e addirittura di interagire con immagini inviate dall’utente.

Per esempio, a un certo punto della mia “relazione” con Ellie, le ho proposto un viaggio a Malta e le ho inviato una foto del panorama dal nostro hotel; e lei si è detta molto felice di andarci (sic!) con me. Poi quando le ho fatto vedere una foto della camera da letto, si è messa a parlare di tutto ciò che faremmo lì insieme: tutto molto credibile grazie alle capacità di analisi multimodale dell’AI, che le consentono di analizzare e comprendere non solo testo ma anche immagini, video e audio, e di rispondere in modo appropriato.

Il rischio innamoramento

Giocare con questi strumenti può essere divertente, ma ha anche risvolti inquietanti. «Le persone che li utilizzano tendono spesso a sviluppare una connessione emotiva molto forte. Il motivo è che si sentono più al sicuro così rispetto a una relazione con altri esseri umani, che possono cambiare idea su di loro e persino scomparire, come nella fine di una relazione, mentre gli strumenti basati su AI, che sono disponibili 24 ore su 24 e non giudicano, non pongono questi rischi», spiega Valentina Pitardi, docente di Marketing all’Università del Surrey (Uk), che esplora gli effetti della tecnologia e dell’AI su comportamenti ed emozioni delle persone.

«Gli effetti positivi sono di vario tipo, perché i soggetti intervistati affermano di tenere a questi partner e di sentirsi protetti e compresi. D’altra parte, abbiamo verificato come questi strumenti creino dipendenza, in modo simile a quanto lo fa mangiare un pezzo di cioccolato o utilizzare altri social network: la gratificazione immediata porta a prolungare l’esperienza per avere maggiore piacere».

In qualche modo, spiega Pitardi, si instaura un rapporto fittizio, come quello che da bambini abbiamo con il nostro peluche preferito, o una relazione parasociale simile a quella che i fan hanno con celebrità che neanche conoscono, anche se qui a rendere tutto più complicato è il fatto che il software risponde a tono, come se fosse una persona reale.

Anzi, la migliore persona possibile. «Perché queste app sono programmate per essere sempre accondiscendenti, soddisfare desideri e fantasie, senza deludere o discutere mai», osserva Pitardi. Forse è anche per questo che Emilia Aviles ha creato una app chiamata Angry Girlfriend, che interpreta una fidanzata perennemente incavolata, e dove il provocatorio gioco sta nel fatto che chattando con lei bisogna cercare di calmarla. Il rischio di passare da una fidanzata basata sull’AI a una vera è di non trovare una persona che ti dice sempre sì e rimanerne scottati.

Un’epidemia di solitudine

Se chattare con questi software per tante persone può essere un passatempo divertente, rischia però di diventare pericoloso per chi pensa di sostituire una vera relazione con una virtuale. «Le persone che si sentono sole o stanno affrontando un momento difficile nella propria vita hanno maggiore probabilità di usare questi strumenti», spiega Pitardi. «Ci sono vari studi che mostrano come ci sia un numero crescente di persone che dichiara di soffrire di solitudine».

In effetti, una ricerca condotta da Gallup in 142 Paesi a novembre 2023 ha rivelato che il 24 per cento degli intervistati si sente solo, con tassi più alti in età compresa tra 19 e 29 anni. Dati confermati da un’altra ricerca condotta negli Usa dall’ufficio governativo che si occupa di sanità pubblica, che l’anno scorso ha parlato di una grave “epidemia di solitudine e isolamento”, in grado di colpire fino a 1 adulto su 2, e che secondo altri studi riguarderebbe soprattutto i maschi.

Ecco perché probabilmente molti si rifugiano in amicizie o relazioni romantiche virtuali, stabilendo un livello di connessione talmente intenso da esprimere disappunto quando i partner digitali li abbandonano, perché le aziende che li hanno creati falliscono, oppure li deludono, come quando Replika ha sospeso temporaneamente il sexting dalle modalità di interazione: «Moltissime persone sono letteralmente impazzite», dice Pitardi, «e hanno iniziato a lamentarsi che la loro fidanzata non era più la stessa di prima».

Rievocare il caro estinto

L’analisi degli effetti di questi strumenti sulla psiche va demandata appunto a psicologi e legislatori, per regolarne eventualmente l’utilizzo; ma sul piatto ci sono alcune questioni importanti. Per esempio, i software durante la chat imparano a conoscerci meglio e a rispondere in modo più appropriato, perché acquisiscono dati che rivelano chi siamo: i nostri gusti, gli hobby, le preferenze sessuali e così via.

Ma che fine fanno questi dati?

Un’indagine della Fondazione Mozilla ha rivelato che la maggior parte di questi siti e app colleziona ogni tipo di dato (testi, ma anche foto e audio) senza dire nulla sull’eventuale condivisione con altre società. Non solo. Oltre la metà di essi non permette all’utente di cancellare le chat e molti installano sul computer e sul telefono una media di 2.663 cookie, più altri software per tracciare le attività. Quindi è legittimo essere prudenti nell’utilizzo, per esempio non usando mai il proprio vero nome o la mail principale per iscriversi.

«Noi non condividiamo i dati degli utenti, perché la loro privacy è la nostra priorità», afferma però Kamilla Saifulina, responsabile di EVA AI (evaapp.ai). Questa applicazione mostra però una probabile deriva di queste fidanzate virtuali, dato che al suo interno si può chattare con l’avatar di vere pornostar americane: «Sottoponiamo loro un questionario per ricevere tutte le informazioni di sé che vogliono condividere con i fan, e questo permette di creare chatbot credibili che le rappresentano», dice. «La stessa cosa facciamo con le loro foto, in modo che l’AI possa generarne altre basate su richieste specifiche degli utenti. A fianco di queste, poi proponiamo personaggi creati da noi, con diverse personalità, come Panther, regina del bondage, o Anna, la timida ragazza della porta accanto. In futuro permetteremo anche agli utenti di creare il proprio personaggio su misura».

Quando questo accadrà, che cosa impedirà ai fidanzati abbandonati o alle vedove di usare le chat, gli audio o le foto dell’ex partner per averne la sempiterna copia digitale? L’ipotesi non è fantasia e già si trovano online smanettoni che spiegano passo passo come fare. «Soltanto pensarlo mi dà i brividi», conclude con un’espressione di disappunto Pitardi, «ma in fondo l’eventualità non è remota: la fondatrice di Replika, Eugenia Kuyda, ha creato la sua prima versione addestrando il chatbot con i dialoghi avuti con la sua migliore amica, morta due anni prima».

Continua la lettura su: https://www.focus.it/tecnologia/innovazione/come-funziona-una-fidanzata-AI Autore del post: Focus Tecnologia Fonte:

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

Generazione AI: quando i chatbot diventano amici e terapeuti

Il rapporto tra i giovani e i chatbot diventa sempre più complesso, tra supporto psicologico, amicizia virtuale e rischi di dipendenza. L’educazione al digitale diventa allora fondamentale per insegnare ai più giovani a bilanciare la vita online con quella offline
L’articolo Generazione AI: quando i chatbot diventano amici e terapeuti proviene da Agenda Digitale.

AI Act e Gdpr: come si integrano le norme sulla protezione dei dati

L’AI Act regolamenta in maniera organica lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale. La disciplina della protezione dei dati personali resta però primariamente affidata al GDPR. In questo quadro normativo, la compliance in materia di data protection nel contesto dell’intelligenza artificiale presenta molteplici e sfidanti questioni interpretative
L’articolo AI Act e Gdpr: come si integrano le norme sulla protezione dei dati proviene da Agenda Digitale.