Il lungo cammino verso l’Agi, l’IA ispirata al cervello umano
Lo studio delle scienze cognitive ci restituisce un quadro multidisciplinare della mente e dell’intelligenza umana, e ci permette di costruire modelli di processi funzionali che ne costituiscono le fondamenta (come per esempio la memoria, il ragionamento, il linguaggio).
Questa prospettiva della mente umana ha influenzato e condizionato da sempre lo studio dell’intelligenza artificiale (IA), tanto che molti dei migliori risultati della ricerca scientifica in questo settore si ispirano alla controparte biologica per riprodurne il funzionamento. Al punto che ora l’industria – vedi Sam Altman di OpenAI – torna a tenere forte l’obiettivo di raggiungere l’Agi, l’intelligenza artificiale generale, ispirata ai processi di quella umana.
Questi processi sono in effetti alla base delle più promettenti tecnologie moderne: alcuni esempi sono il neurone artificiale [1] (alla base delle reti neurali), le reti convoluzionali per il riconoscimento di immagini [2] e i più recenti transformer [3], nei quali viene riprodotto il meccanismo di attenzione che permette (tra le altre cose) di focalizzarsi su parti diverse di un testo per l’elaborazione.
L’obiettivo dell’IA forte o Agi e le sue sfide
Questo studio dell’intelligenza artificiale è stato accompagnato, fin dai sui albori, dall’obiettivo di sviluppare un’intelligenza artificiale forte o generale (agi), cioè una forma di intelligenza in grado di adattarsi a qualsiasi situazione, di risolvere qualsiasi problema e in grado di dimostrare capacità senzienti [4] senza la necessità di un intervento esterno.
Ma un’IA forte oggi sembra ancora irrealistica, a causa di diversi fattori, tra cui il fatto che sono ancora molti i meccanismi della mente umana che non riusciamo a comprendere e riprodurre. La verità è che oggi, nelle nostre quotidianità, siamo circondati da intelligenze artificiali deboli, agenti progettati e sviluppati per svolgere compiti specifici in contesti ben delineati (come per esempio giocare a scacchi, pilotare un’auto, classificare immagini, etc. etc.). Questo non significa che sia una tecnologia semplice, tutt’altro, l’IA oggi svolge compiti molto complessi e affronta problemi che un individuo non sarebbe in grado di affrontare e risolvere per limiti strutturali.
Limiti e dipendenze dell’IA debole
Questi agenti artificiali hanno bisogno di dati per essere allenati, hanno bisogno che gli obiettivi da perseguire siano descritti a priori e hanno bisogno di input, di stimoli per poter eseguire le proprie elaborazioni. In questo panorama, si può intravvedere come tutte le scelte intelligenti non siano fatte dall’agente ma da chi lo ha progettato, sviluppato e implementato: è il ricercatore o lo sviluppatore che ha deciso quali dati usare, come usarli, e stabilisce obiettivi e capacità dell’agente.
In questo “Agere sine Intelligere” [5] il compiere un’azione è separato dalla responsabilità di compierla. L’IA è quindi uno strumento in balia dell’utente: non è in grado di fare scelte coscienti e autonome, dove per autonomia (dal greco autòs – nòmos cioè legge/regola (nomòs) di sé stesso (autòs)) intendiamo la capacità di auto-regolarsi, di essere padroni di sé. Questa capacità di riflettere sulle azioni intraprese per determinarne la bontà è ad oggi una caratteristica mancante nei sistemi artificiali, che non sono in grado di discriminare le scelte in base, non solo ai dati usati in fase di allenamento, ma anche dalla contingenza.
Processi metacognitivi e introspezione umana
L’attività introspettiva autonoma negli esseri umani può essere ricondotta ai processi metacognitivi [6, 7], ovvero a tutte quelle attività che permettono agli individui di riflettere sui propri pensieri. Proviamo per esempio ad immaginare un individuo che parla tra sé e sé, a voce alta o nei propri pensieri, riflettendo su un’azione intrapresa, un’esperienza vissuta e in base ai ricordi comincia a pensare a quanto fatto o a eventuali alternative. Questo processo metacognitivo permette all’esperienza di fissarsi nella memoria ma anche di esplorare virtualmente altre possibilità creando nuova esperienza. Una fondamentale differenza in questo senso è che gli agenti artificiali non “parlano” tra sé, non riflettono sull’esperienza passata e non sono in grado di inferire nuova conoscenza senza che ci sia un intervento strutturale esterno.
Il sistema duale del pensiero umano
Recenti studi si ispirano al sistema duale descritto tra gli altri anche nel libro “Pensieri lenti e veloci” di Daniel Kahneman [8], che categorizza i processi del pensiero umano in due gruppi: Sistema 1 (pensiero veloce) e Sistema 2 (pensiero lento), termini coniati inizialmente da Stanovich and West [9]. Il Sistema 1 è responsabile di decisioni intuitive, rapide e spesso inconsce, mentre il Sistema 2 è dedicato all’elaborazione di ragionamenti complessi, logici, utili per risolvere problemi più difficili. Basandosi su euristiche, il Sistema 1 riesce a fornire risposte rapide a problemi semplici ma spesso senza poter fornire spiegazioni dettagliate. Sebbene i modelli del mondo del Sistema 1 possano essere imprecisi, sono comunque sufficienti per gestire stimoli quotidiani. Con il passare del tempo, con l’aumentare dell’esperienza e della conoscenza, può succedere che compiti inizialmente gestiti dal Sistema 2 possano diventare gestibili dal Sistema 1.
Metacognizione e flessibilità cognitiva
Questa transizione non avviene per tutti i compiti, poiché alcuni richiedono sempre l’intervento del Sistema 2. Negli esseri umani, la metacognizione gioca un ruolo cruciale nel riconoscere quando un problema richiede un ragionamento più strutturato (come quello del Sistema 2) e sono proprio le attività metacognitive che aiutano a scegliere il sistema decisionale appropriato e a riflettere sulle esperienze passate per migliorare le decisioni future. Questa flessibilità cognitiva permette agli esseri umani di adattare i loro metodi di risoluzione dei problemi e ottenere un allineamento dei valori, spesso superando impulsi istintivi per agire secondo intuizioni più razionali [10].
Approcci top-down e bottom-up nell’IA
In questo contesto, la ricerca crea un parallelismo tra le scienze cognitive e l’IA. Nel contesto dell’intelligenza artificiale possiamo identificare due diverse famiglie di tecnologie: alla prima famiglia appartengono tutti gli approcci di tipo top-down che utilizzano algoritmi o regole esplicite per la risoluzione di problemi; alla seconda famiglia, invece, appartengono gli approcci di tipo bottom-up, che si basano sui dati per estrarre informazione utile per modellare il dominio di studio. A quest’ultima famiglia appartiene il machine learning e le sue varie declinazioni. Il primo gruppo assomiglia al Sistema 2 legato al pensiero lento, perché queste tecniche necessitano di più risorse, effettuano scelte deliberate da processi simili al ragionamento umano, mentre il secondo gruppo è assimilabile al Sistema 1 che basandosi sull’esperienza pregressa adotta euristiche per arrivare velocemente ad un risultato. Spesso i sistemi di IA risultano essere una combinazione statica dei due sistemi, limitando in questo modo la flessibilità del sistema se confrontata con quella dell’essere umano.
Il futuro dell’IA e le capacità metacognitive
I modelli linguistici di grandi dimensioni (LLM) di ultima generazione fanno pensare però che un sistema unico sia sufficiente per affrontare e risolvere problematiche diverse, senza la necessità di avere a disposizione agenti risolutori specializzati in compiti particolari e soprattutto la necessità di processi metacognitivi, tanto da paventare in questi sistemi barlumi di IA generale [11]. La discussione si concentra su alcuni comportamenti emergenti, come la capacità di risolvere problemi di pianificazione o migliorare l’interazione uomo-macchina, per cui i sistemi non sono stati addestrati esplicitamente.
Limiti dei Large Language model e prospettive future
Una parte della comunità però sostiene che questi strumenti non siano veramente in grado di processare l’informazione nella forma di ragionamenti, ma generano invece qualcosa di simile a ciò che hanno appreso durante l’addestramento. Nel contesto della teoria del sistema duale, gli LLM possono essere visti e utilizzati come tipi di Sistema 1 che, incorporando un’ampia conoscenza pregressa, offrono soluzioni (sub)ottimali a problemi complessi.
In generale, diversi fattori meritano considerazione riguardo agli LLM: l’enorme quantità di dati richiesta per addestrare questi modelli, la dimensione stessa del modello, lo sforzo computazionale richiesto per ottenere un modello funzionale rendono questi strumenti sicuramente molto utili, ma anche non facili da governare. Per quanto esposto finora, un sistema metacognitivo separato, capace di valutare e processare indipendentemente dai solutori impiegati, sembra ad oggi una linea di ricerca interessante.
Ispirazioni dalla teoria cognitiva per l’architettura dell’IA
La teoria cognitiva del sistema duale ispira lo sviluppo di architetture di IA che integrano modalità di decisione veloci e lente con capacità metacognitive [12, 13]. Risultati in questa direzione esistono e puntano alla flessibilità e all’allineamento dei valori osservati nell’intelligenza umana [14, 15]. Questa integrazione sta attirando l’attenzione di aziende e ricercatori[i]e promette di generare sistemi di IA più adattabili e allineati all’essere umano [16, 17, 18, 19, 20, 21, 22].
Bibliografia
- Warren S McCulloch and Walter Pitts. “A logical calculus of the ideas immanent in nervous activity”. In: The bulletin of mathematical biophysics 5 (1943), pp. 115–133.
- Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. “ImageNet classification with deep convolutional neural networks”. In: Communications of the ACM 60.6 (2017), pp. 84–90.
- Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. “Attention is all you need”. In: Advances in neural information processing systems 30 (2017).
- Vincenzo Ambriola. “Agi (intelligenza artificiale generale): da dove arriva e dove va”. In: (). url: https://www.agendadigitale.eu/culturadigitale/da-turing-ai-modelli-generativi-percorsi-e-sfidedellintelligenza-artificiale-generale/.
- Luciano Floridi. “AI as agency without intelligence: on ChatGPT, large language models, and other generative models”. In: Philosophy & technology 36.1 (2023), p. 15.
- Michael T Cox. “Metacognition in computation: A selected research review”. In: Artificial Intelligence 169.2 (2005), pp. 104–141.
- John H Flavell. “Metacognition and cognitive monitoring: A new area of cognitive–developmental inquiry.” In: American psychologist 34.10 (1979), p. 906.
- Daniel Kahneman. Thinking, Fast and Slow. Macmillan, 2011.
- Keith E. Stanovich and Richard F. West. “Individual differences in reasoning: Implications for the rationality debate?” In: Behavioral and Brain Sciences 23.5 (Oct. 2000), pp. 645–726.
- Edmond Awad, Sydney Levine, Andrea Loreggia, Nicholas Mattei, Iyad
- Rahwan, Francesca Rossi, Kartik Talamadupula, Joshua Tenenbaum, and Max Kleiman-Weiner. “When is it acceptable to break the rules? Knowledge representation of moral judgements based on empirical data”. In: Autonomous Agents and Multi-Agent Systems 38.2 (2024), p. 35.
- S´ebastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, et al. “Sparks of artificial general intelligence: Early experiments with GPT-4. arXiv”. In: arXiv preprint arXiv:2303.12712 (2023).
- Francesca Rossi and Nicholas Mattei. “Building Ethically Bounded AI”. In: Proceedings of the 33rd AAAI Conference on Artificial Intelligence (AAAI). 2019, pp. 9785–9789.
- Francesca Rossi and Andrea Loreggia. “Preferences and ethical priorities: thinking fast and slow in AI”. In: Proceedings of the 18th International Conference on Autonomous Agents and Multiagent Systems. 2019, pp. 3–4.
- Grady Booch, Francesco Fabiano, Lior Horesh, Kiran Kate, Jonathan Lenchner, Nick Linck, Andreas Loreggia, Keerthiram Murgesan, Nicholas Mattei, Francesca Rossi, and Biplav Srivastava. “Thinking Fast and Slow in AI”. In: Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 35. 17. 2021, pp. 15042–15046.
- Stuart Russell. Human Compatible: Artificial Intelligence and the Problem of Control. Penguin, 2019.
- Di Chen, Yiwei Bai, Wenting Zhao, Sebastian Ament, John M Gregoire, and Carla P Gomes. “Deep reasoning networks: Thinking fast and slow”. In: arXiv preprint arXiv:1906.00855 (2019).
- Sudip Mittal, Anupam Joshi, and Tim Finin. “Thinking, fast and slow: Combining vector spaces and knowledge graphs”. In: arXiv preprint arXiv:1708.03310 (2017).
- Ingmar Posner. “Robots Thinking Fast and Slow: On Dual Process Theory and Metacognition in Embodied AI”. In: (2020).
[i] https://edrm.net/2024/07/bill-gates-on-the-next-big-frontier-of-generative-aiprogramming-metacognition-strategies-into-chatgpt/ – Visitato il 4 settembre 2024
Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/il-futuro-dellia-ispirato-dalla-mente-umana-il-lungo-cammino-verso-unia-generale/
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale Chiedi tutte le informazioni a genitoridigitali@koinokalo.it |