L’avvento dell’IA nella scienza: le linee guida Ue per una ricerca dal volto umano
L’intelligenza artificiale è una tecnologia per definizione abilitante, fondamentale per la scienza.
La velocità con cui l’IA può influire nei processi di sviluppo dei materiali avanzati, dei gemelli digitali, della diagnostica per immagini, o per i progetti di fusione nucleare, può costituire un bene a beneficio di tutti, purché sia rispettata l’integrità della scoperta scientifica.
L’impatto dell’IA sulla ricerca e innovazione: benefici e rischi
Certo sintassi e semantica non sono sufficienti da sole a scompaginare l’intero quadro comportamentale, prima ancora che regolatorio, di un sistema scientifico millenario. Ma è chiaro che l’impatto dell’IA sulla ricerca e l’innovazione è in continua evoluzione, o meglio, è una continua rivoluzione.
Non dobbiamo attendere l’arrivo dell’Intelligenza artificiale generale o dover verificare quali effetti produrrà l’Edge AI, per disegnare alcune aree di rischio o linee di vulnerabilità per le quali urge un’azione di indirizzo programmatico e/o regolatorio.
Questa tecnologia pone un problema di sostenibilità etica sui risultati prodotti dalla generazione delle informazioni da modelli linguistici e probabilistici. È difficile comprendere dalla semplice lettura di un documento, anche referenziato, se il testo trasporta pregiudizi, incorporati nell’input, o esclude diversità scientifiche, non ricomprese nella codifica degli input.
L’IA assiste i ricercatori nel percorso di ricerca con l’automazione di alcune attività di calcolo e, soprattutto, attraverso la predisposizione di output testuali o per immagini, determinati da correlazioni stabilite dal modello di vettorializzazione (associazione di ciascun token-informazione digitale a contesti d’uso) dei sistemi di IA. Semantica e sintassi giocano un ruolo chiave non solo nella determinazione del testo narrativo della scoperta scientifica, ma soprattutto nel dispositivo di riconoscimento/attenzione che il modello di IA attribuisce ai token.
Potenzialità e criticità dell’adozione di sistemi di IA rinforzati
Chi produce cosa? Nel caso di utilizzo di sistemi di rappresentazione testuale binari- INPUT verso OUTPUT, il ricercatore potrà essere confutato nella propria ricerca da una tesi opposta, prodotta da un’IA avversaria. Inoltre il sistema di intelligenza artificiale può essere addestrato per rinforzo e, per effetto, produrre risultati intellettuali ancora più performanti, quindi non ricollegabili a una singola “entità”.
L’adozione di sistemi di IA rinforzati, con ampie basi testuali, può sicuramente ridurre al minimo la possibilità di errore nella elaborazione di un risultato o nella categorizzazione di un ragionamento scientifico. Tuttavia non possiamo escludere che l’IA possa sbagliare risposta o addirittura avere allucinazioni.
Regolamentazione europea sull’utilizzo dell’IA in ambito scientifico
A livello europeo, l’impatto dell’IA su questo dominio è stato oggetto di diversi studi e di un quadro di riferimento regolatorio, per impedire che la stessa possa destabilizzare i tradizionali canoni della ricerca scientifica.
A marzo 2024, il forum degli stakeholder, costituito in seno all’European Research Area- ERA, ha emanato le prime raccomandazioni atte ad analizzare e modellare i percorsi di integrazione dell’IA nella scienza o con la scienza.
Le raccomandazioni dell’European Research Area- ERA
Sinteticamente, tali linee guida suonano come un forte richiamo a tutto il mondo della ricerca perché siano rispettate regole comuni nell’adozione delle applicazioni di IA nelle proprie attività. In particolare, l’invito verte su alcuni pilastri, tra cui meritano una menzione:
- Affidabilità della ricerca, vale a dire verifica dei risultati prodotti dall’IA, in termini di qualità o esattezza informativa.
- Trasparenza e comunicazione dell’utilizzo di strumenti di IA per la realizzazione di scoperte scientifiche.
- Rispetto dei diritti di proprietà intellettuale nella registrazione e divulgazione dei risultati. Chi produce cosa.
- Individuazione delle esatte responsabilità proprie dell’azione umana e alla supervisione della gestione e organizzazione delle attività.
L’intelligenza artificiale nella scienza: un documento politico fondamentale
Queste raccomandazioni sono successive a un altro documento politico, dal titolo “L’intelligenza artificiale nella scienza. Sfruttare la potenza dell’intelligenza artificiale per accelerare la scoperta e promuovere l’innovazione”.
Le indicazioni poggiano su una riflessione, pienamente condivisibile, di garantire un equilibrio relazionale tra comunità scientifica “analogica” e capacità e/o rischi futuri propri dell’IA. C’è infatti un richiamo, più o meno dichiarato, ai decisori politici di “blindare” il ruolo e l’autorevolezza della scienza e della comunità scientifica nella risoluzione delle sfide globali. Difatti, da una rassegna delle aree di intervento, si percepisce come le stesse facciano più riferimento alle applicazioni dell’intelligenza artificiale che non alla ricerca sull’IA, o alla formazione di scienziati in IA.
Questo box di indirizzo politico, contiene l’invito ad attivare quadri di programmazione di medio e lungo periodo.
- Visione e governance. Visione politica di lungo periodo per consentire agli scienziati di utilizzare l’IA per le scoperte scientifiche e non farsi sostiuire dall’IA. Tale obiettivo richiede l’adozione di una governance, al tempo stesso, agile e inclusiva, di tutti gli attori e le infrastrutture che costituiscono l’ecosistema scientifico europeo;
- Talento, l’attrazione di talenti o la loro formazione interdisciplinare per originare le prossime generazioni di algoritmi diventano un fattore di sostenibilità e competività per tutto il continente.
- Ecosistema dei Dati, gli investimenti che trasversalmente investono tutti i processi di automazione, e le iniziative di scoperta scientifica in corso, richiedono il completamento dello spazio unico dei dati a livello europeo e il rafforzamento dei centri di calcolo ad alte prestazioni.
Conclusioni
Quello che potrebbe accadere nel futuro è che le intelligenze artificiali diventino tante entità scientifiche, quasi autonome. Oggi rappresentano solo tanti piccoli agenti linguistici, proprietari, semiautonomi, dotati di buone capacità linguistiche e probabilistiche, con nomi standardizzati, che esprimono una storia tecnologica e non una radice culturale.
Tuttavia è molto probabile, che in un futuro non tanto lontano, l’ibridazione tra applicazioni di intelligenza artificiale e gestione della conoscenza, attraverso la raccolta e l’elaborazione dei dati o di token linguistici, perfino nei punti periferici della rete, può ridurre al minimo l’impegno dell’intelligenza umana nella osservazione e sperimentazione scientifica, o nella ricerca industriale e trasferimento tecnologico.
Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/lavvento-dellia-nella-scienza-le-linee-guida-ue-per-una-ricerca-dal-volto-umano/
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale Chiedi tutte le informazioni a genitoridigitali@koinokalo.it |