L’avvento dell’IA nella scienza: le linee guida Ue per una ricerca dal volto umano

L’intelligenza artificiale è una tecnologia per definizione abilitante, fondamentale per la scienza.

La velocità con cui l’IA può influire nei processi di sviluppo dei materiali avanzati, dei gemelli digitali, della diagnostica per immagini, o per i progetti di fusione nucleare, può costituire un bene a beneficio di tutti, purché sia rispettata l’integrità della scoperta scientifica.

Indice degli argomenti

L’impatto dell’IA sulla ricerca e innovazione: benefici e rischi

Certo sintassi e semantica non sono sufficienti da sole a scompaginare l’intero quadro comportamentale, prima ancora che regolatorio, di un sistema scientifico millenario. Ma è chiaro che l’impatto dell’IA sulla ricerca e l’innovazione è in continua evoluzione, o meglio, è una continua rivoluzione.

Non dobbiamo attendere l’arrivo dell’Intelligenza artificiale generale o dover verificare quali effetti produrrà l’Edge AI, per disegnare alcune aree di rischio o linee di vulnerabilità per le quali urge un’azione di indirizzo programmatico e/o regolatorio.

Questa tecnologia pone un problema di sostenibilità etica sui risultati prodotti dalla generazione delle informazioni da modelli linguistici e probabilistici. È difficile comprendere dalla semplice lettura di un documento, anche referenziato, se il testo  trasporta pregiudizi, incorporati nell’input,  o esclude diversità scientifiche, non ricomprese nella codifica degli input.

L’IA assiste i ricercatori nel percorso di ricerca con l’automazione di alcune attività di calcolo e, soprattutto, attraverso  la predisposizione di output testuali o per immagini, determinati da correlazioni stabilite dal modello di vettorializzazione (associazione di ciascun token-informazione digitale a contesti d’uso) dei sistemi di IA. Semantica e sintassi giocano un ruolo chiave non solo nella determinazione del testo narrativo della scoperta scientifica, ma soprattutto nel dispositivo di riconoscimento/attenzione che il modello di IA attribuisce ai token.

Potenzialità e criticità dell’adozione di sistemi di IA rinforzati

Chi produce cosa? Nel caso di utilizzo di sistemi di rappresentazione testuale binari- INPUT verso OUTPUT, il ricercatore potrà essere confutato nella propria ricerca da una tesi opposta, prodotta da un’IA avversaria. Inoltre il sistema di intelligenza artificiale può essere addestrato per rinforzo e, per effetto, produrre risultati intellettuali ancora più performanti, quindi non ricollegabili a una singola “entità”. 

L’adozione di sistemi di IA rinforzati, con ampie basi testuali, può sicuramente ridurre al minimo la possibilità di errore nella elaborazione di un risultato o nella categorizzazione di un ragionamento scientifico. Tuttavia non possiamo escludere che l’IA possa sbagliare risposta o addirittura avere allucinazioni.

Regolamentazione europea sull’utilizzo dell’IA in ambito scientifico

A livello europeo, l’impatto dell’IA su questo dominio è stato oggetto di diversi studi e di un quadro di riferimento regolatorio, per impedire che la stessa possa destabilizzare i tradizionali canoni della ricerca scientifica. 

A marzo 2024, il forum degli stakeholder, costituito in seno all’European Research Area- ERA, ha emanato le prime raccomandazioni atte ad analizzare e modellare i percorsi di integrazione dell’IA nella scienza o con la scienza.

Le raccomandazioni dell’European Research Area- ERA

Sinteticamente, tali linee guida suonano come un forte richiamo  a tutto il mondo della ricerca perché siano rispettate regole comuni nell’adozione delle applicazioni di IA nelle proprie attività. In particolare, l’invito  verte su alcuni pilastri, tra cui meritano una menzione:

  • Affidabilità della ricerca, vale a dire verifica dei risultati prodotti dall’IA, in termini di qualità o esattezza  informativa.
  • Trasparenza e comunicazione dell’utilizzo di strumenti di IA per la realizzazione di scoperte scientifiche.
  • Rispetto dei diritti di proprietà intellettuale nella registrazione e divulgazione dei risultati. Chi produce cosa.
  • Individuazione delle esatte responsabilità proprie dell’azione umana e alla supervisione della gestione e organizzazione delle attività.

L’intelligenza artificiale nella scienza: un documento politico fondamentale

Queste raccomandazioni sono successive a un altro documento politico, dal titolo “L’intelligenza artificiale nella scienza. Sfruttare la potenza dell’intelligenza artificiale per accelerare la scoperta e promuovere l’innovazione”.

Le indicazioni poggiano su una riflessione, pienamente condivisibile, di garantire un equilibrio relazionale tra comunità scientifica “analogica” e capacità e/o rischi futuri propri dell’IA. C’è infatti un richiamo, più o meno dichiarato, ai decisori politici di “blindare” il ruolo e l’autorevolezza della scienza e della comunità scientifica nella risoluzione delle sfide globali. Difatti, da una rassegna delle aree di intervento, si percepisce come le stesse facciano più riferimento alle applicazioni dell’intelligenza artificiale che non alla ricerca sull’IA, o alla formazione di scienziati in IA.

Questo box di indirizzo politico, contiene l’invito ad attivare quadri di programmazione di medio e lungo periodo.

  • Visione e governance. Visione politica di lungo periodo per consentire agli scienziati di utilizzare l’IA per le scoperte scientifiche e non farsi sostiuire dall’IA. Tale obiettivo richiede l’adozione di una governance, al tempo stesso, agile e inclusiva, di tutti gli attori e le infrastrutture che costituiscono l’ecosistema scientifico europeo;
  • Talento, l’attrazione di talenti o la loro formazione interdisciplinare per originare le prossime generazioni di algoritmi diventano un fattore di sostenibilità e competività per tutto il continente.
  • Ecosistema dei Dati, gli investimenti che trasversalmente investono tutti i processi di automazione, e le iniziative di scoperta scientifica in corso, richiedono il completamento dello spazio unico dei dati a livello europeo e il rafforzamento dei centri di calcolo ad alte prestazioni.

Conclusioni

Quello che potrebbe accadere nel futuro è che le intelligenze artificiali diventino tante entità scientifiche, quasi autonome. Oggi rappresentano solo tanti piccoli agenti linguistici, proprietari,  semiautonomi, dotati di buone capacità linguistiche e probabilistiche, con nomi standardizzati, che esprimono una storia tecnologica e non una radice culturale. 

Tuttavia è molto probabile, che in un futuro non tanto lontano, l’ibridazione tra applicazioni di intelligenza artificiale e gestione della conoscenza, attraverso la raccolta e l’elaborazione dei dati o di token linguistici, perfino nei punti periferici della rete, può ridurre al minimo l’impegno dell’intelligenza umana nella osservazione e sperimentazione scientifica, o nella ricerca industriale e trasferimento tecnologico.

Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/lavvento-dellia-nella-scienza-le-linee-guida-ue-per-una-ricerca-dal-volto-umano/

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

Targeting comportamentale: così le aziende “pilotano” le nostre scelte online

La raccolta dati e il targeting comportamentale sono strumenti essenziali per le imprese, ma sollevano importanti questioni di privacy e conformità normativa. Esploriamo le metodologie di raccolta dati, le tecniche di targeting comportamentale, le implicazioni giuridiche e le sfide etiche, evidenziando la necessità di un equilibrio tra innovazione e tutela dei diritti
L’articolo Targeting comportamentale: così le aziende “pilotano” le nostre scelte online proviene da Agenda Digitale.

AI e protezione dei dati, gli scenari di rischio da valutare nella DPIA: una guida

Le valutazioni di impatto sulla protezione dei dati (DPIA) sono cruciali nel contesto dell’Intelligenza Artificiale (AI). È essenziale un approccio strutturato per identificare e mitigare i rischi, in linea con l’AI Act e il GDPR. Trasparenza, accountability e coinvolgimento degli stakeholder sono fondamentali per garantire la protezione dei diritti degli individui
L’articolo AI e protezione dei dati, gli scenari di rischio da valutare nella DPIA: una guida proviene da Agenda Digitale.

[mwai_chatbot id="chatbot-h9et3q"]