Macchine che pensano? Il grande equivoco dell’IA

Le applicazioni dell’intelligenza artificiale sono da tempo largamente diffuse in molti settori, ma è con le chatbot che il grande pubblico ha preso coscienza dell’esistenza dell’IA, delle sue potenzialità e delle problematiche connesse.

Basta fare una domanda e la chatbot, disponibile per chiunque abbia un pc e una connessione o uno smartphone, risponde in un italiano perfetto. Trova radici di equazioni. Calcola integrali. Dato un compito, produce il relativo codice per computer. Scrive mail, relazioni, progetti. Scrive poesie, storie, saggi, business plan. Traduce in qualsiasi lingua. Sostiene discussioni, argomentando le sue affermazioni. Produce immagini da una descrizione testuale. Fa questo e molto altro.

Dunque, con le chatbot abbiamo creato una macchina in grado di risolvere problemi che richiedono pensiero e comprensione? O, detto in altro modo abbiamo creato una macchina in grado di pensare? E che cosa vuol dire che una macchina può pensare? E, soprattutto, sono queste le domande a cui oggi dobbiamo rispondere?

Indice degli argomenti

L’imitation game di Alan Turing

Nel 1950, quando ancora non esisteva la locuzione “Intelligenza Artificiale”, Alan Turing propose di affrontare la questione “Le macchine possono pensare?” in questo modo.

Si dovrebbe iniziare con la definizione del significato dei termini “macchina” e “pensare”. Le definizioni potrebbero essere formulate in modo da riflettere il più possibile l’uso normale delle parole, ma questo atteggiamento è pericoloso. Se il significato delle parole “macchina” e “pensare” deve essere trovato esaminando il modo in cui sono comunemente usate, è difficile sfuggire alla conclusione che il significato e la risposta alla domanda “Le macchine possono pensare?” devono essere ricercati in un’indagine statistica. Ma questo è assurdo. Invece di tentare una definizione di questo tipo, sostituirò la domanda con un’altra, che è strettamente correlata ad essa ed è espressa con parole relativamente inequivocabili.

E la proposta di Turing fu l’imitation game, che oggi molti indicano come il test di Turing:

Si gioca con tre persone, un uomo (A), una donna (B) e un interrogatore (C) che può essere di entrambi i sessi. L’interrogatore rimane in una stanza separata dagli altri due. Lo scopo del gioco per l’interrogatore è determinare quale degli altri due è l’uomo e quale la donna. Li conosce con le etichette X e Y e alla fine del gioco dice “X è A e Y è B” oppure “X è B e Y è A”. L’interrogante può porre domande ad A e B in questo modo:

C: X può dirmi la lunghezza dei suoi capelli?

Ora supponiamo che X sia in realtà A, allora A deve rispondere. L’obiettivo di A nel gioco è cercare di indurre C a fare un’identificazione sbagliata. La sua risposta potrebbe quindi essere:

“I miei capelli sono a spazzola e le ciocche più lunghe sono di circa 15 centimetri”.

Lo scopo del gioco per il terzo giocatore (B) è aiutare l’interrogante. La strategia migliore per lei è probabilmente quella di dare risposte sincere. Può aggiungere alle sue risposte frasi come “Io sono la donna, non ascoltarlo!”, ma non servirà a nulla perché l’uomo può fare osservazioni simili.

Ora poniamo la domanda: “Cosa succederà quando una macchina prenderà il ruolo di A in questo gioco?”. L’interrogante deciderà in modo sbagliato con la stessa frequenza con cui lo fa quando il gioco è giocato tra un uomo e una donna? Queste domande sostituiscono la nostra domanda iniziale: “Le macchine possono pensare?”.

Questa, dunque, la formulazione originale, che però quasi mai nessuno usa, sostituendola con un’altra, per esempio come questa suggerita da ChatGPT:

Il test prevede una situazione in cui un giudice umano interagisce con una macchina e un altro essere umano, senza sapere chi è chi. Se il giudice non riesce a distinguere tra le risposte della macchina e quelle dell’essere umano, si dice che la macchina ha superato il test.

Come ingannare il giudice nell’imitation game

Ma questa è una banalizzazione del gioco dell’imitazione. Basterebbe chiedere a entrambi “sei un essere umano?” e la chatbot risponderebbe così:

No, non sono un essere umano. Sono un modello linguistico, un tipo di intelligenza artificiale. Non ho un corpo fisico e non posso compiere azioni nel mondo reale come un essere umano. La mia funzione principale è quella di elaborare e generare testo, rispondere a domande e fornire informazioni in modo informativo e completo, come sto facendo ora.

Qual è la differenza tra me e un essere umano?

Fisicità: Gli esseri umani hanno un corpo fisico, mentre io sono un programma informatico che esiste solo all’interno di un computer.

Esperienze: Gli esseri umani hanno esperienze di vita reali, mentre io le imparo attraverso i dati su cui sono stato addestrato.

Consapevolezza: Non ho una coscienza di me stesso o del mondo come la intendiamo noi umani.

Perché potresti pensare che io sia un essere umano?

Potresti avere questa impressione perché sono stato programmato per comunicare in modo naturale e conversazionale, simulando in parte alcune caratteristiche del linguaggio umano. Tuttavia, è importante ricordare che non ho la capacità di provare emozioni, di avere opinioni personali o di prendere decisioni autonome.

Anche se in questa formulazione del test non è specificato, il gioco consisterebbe nel cercare di ingannare il giudice da parte dei due sfidanti. Siccome una chatbot non è cosciente delle regole del gioco, toccherebbe all’essere umano fare finta di essere anch’esso una macchina, dando una risposta analoga a quella della chatbot. Ma allora basterebbe fare ad entrambi domande del tipo quanto è la radice quadrata di 5344739 e quando è nato Geoffrey Chaucer. La chatbot saprebbe rispondere, mentre l’umano potrebbe rispondere solo per secondo ripetendo quello che ha detto la chatbot. In questo caso, il giudice distinguerebbe facilmente tra le risposte della macchina e quelle dell’essere umano e la chatbot non supererebbe il test così formulato.

La descrizione del test di Turing data da ChatGPT

Ma la descrizione del test di Turing data da ChatGPT non è quella più diffusa che, invece, grosso modo è di questo tipo:

Una macchina può essere detta pensante se riusciamo a fare un gioco in cui finge di essere una persona con cui possiamo conversare su qualunque argomento per molto tempo senza riuscire a smascherarla.

Oppure questa, che è analoga

Il test sarebbe passato quando, per un lungo periodo, l’intelligenza artificiale mostra un’abilità nel conversare simile a quella umana, in modo tale che un interlocutore umano non potrebbe dire se sta parlando con una macchina.

Che non è affatto quello che Turing ha proposto nell’articolo citato. In questa interpretazione la chatbot dovrebbe sapere fingere conversando su qualsiasi argomento. Ma una chatbot non è programmata per fingere e basta chiedergli chi è e lei te lo dice. E se questo non bastasse, si potrebbe chiedere di fare un calcolo complicato o una traduzione in una lingua insolita per capire che non è un umano.

Potrei fare la stessa cosa con il test in versione originale, in cui la chatbot, che gioca il ruolo di A (l’uomo), dovrebbe trarmi in inganno facendomi credere di essere la donna?

La chatbot non è programmata per applicare le regole del gioco e mi risponderebbe sempre, come abbiamo visto, in un modo corretto. Quindi, basta chiedere a X se è un uomo per scoprire che è una macchina. Se C sa che X ha preso il posto dell’uomo il gioco è finito perché indovina sempre chi è la donna, che ha il compito di aiutarlo. Ma anche nel caso in cui C non sappia chi dei due è stato sostituito dalla macchina, immagina che sia la macchina a fare la parte dell’uomo perché una risposta del genere non sarebbe data dalla donna che ha il compito di aiutarlo. Quindi:

L’interrogante decide in modo sbagliato con la stessa frequenza con cui lo fa quando il gioco è giocato tra un uomo e una donna?

No, l’interrogante decide con molta più sicurezza che non quando il gioco è giocato tra un uomo e una donna e quindi la chatbot non passerebbe il test di Turing.

Quanto illustrato aiuta a comprendere come sia inappropriato citare il test di Turing, tra l’altro in modo non corrispondente a quello formulato dall’autore nell’articolo citato, a proposito dell’attuale stato dell’arte del settore dell’intelligenza artificiale.

Che cosa vuol dire essere umani e perché le macchine non potranno mai simulare di esserlo

L’IA è passata da una fase in cui era una sorta di scienza volta a capire come imitare facoltà umane, a una fase in cui è diventata una tecnologia rivolta alla realizzazione di prodotti e servizi, utili per raggiungere scopi nobili e meno nobili.

Gallese e Morelli ci spiegano che cosa vuol dire essere umani e perché le macchine non potranno mai simulare di esserlo. Ma ciò non importa. Attualmente non è questo il problema dell’IA. Oggi siamo interessati a quello che le macchine possono e potranno fare interagendo con gli esseri umani. L’intelligenza artificiale è diventata una tecnologia in rapida crescita e in veloce diffusione, volta ad aumentare le nostre facoltà. Una tecnologia nel suo stato iniziale, destinata a diventare rapidamente una meta-tecnologia, il cui prodotto, cioè, è lo sviluppo di tutte le tecnologie conosciute. Una tecnologia che potrà essere usata da noi umani per aiutarci a vivere meglio o per distruggerci.

Note

1) Esempi di applicazioni di IA sono: automazione industriale, assistenza sanitaria, guida autonoma, finanza, robotica, e-commerce, gaming, sistemi di sicurezza, traduzione automatica, riconoscimento di immagini, energia e sostenibilità, armamenti, assistenti personali ecc.,

2) A. M. Turing (1950) Computing Machinery and Intelligence. Mind 49: 433-460. Gemini descrive il test in modo abbastanza fedele.

3) ibidem

4) Tratta da una presentazione di Nello Cristianini al Festival della Comunicazione (Camogli 2024)

5) M. Suleyman (2024), L’onda che verrà, Garzanti.

6) V. Gallese e U. Morelli (2024), Che cosa significa essere umani? Raffaello Cortina editore

Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/macchine-che-pensano-il-grande-equivoco-dellia/

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

L’illusione della sicurezza: i pericoli nascosti dell’AI nella cybersecurity

Negli ultimi anni, l’AI ha rivoluzionato molti settori, inclusa la cybersecurity. Tuttavia, affidarsi a sistemi di AI per la sicurezza informatica comporta rischi significativi. Esploriamo lo stato dell’arte delle applicazioni dell’AI nella cybersecurity, evidenziando i potenziali pericoli e i limiti di questi sistemi avanzati
L’articolo L’illusione della sicurezza: i pericoli nascosti dell’AI nella cybersecurity proviene da Agenda Digitale.