Come verranno decisi standard e certificazioni dell’intelligenza artificiale in Europa?
La definizione di standard tecnici condivisi per la sicurezza degli algoritmi e altri aspetti essenziali legati allo sviluppo dell’IA rappresenterà la principale sfida connessa all’attuazione dello AI Act, definendone, in ultima istanza, la reale portata e capacità di esercitare il tanto desiderato controllo. Questi standard, però, richiedono anni per essere elaborati ed approvati (il tempo medio di approvazione di uno standard è tra i tre e i cinque anni). Molta della capacità prescrittiva dell’AI Act è quindi di fatto rimandata e soggetta a non poca incertezza.
Al tempo stesso, tali prodotti dovranno essere certificati e sottoposti ad un impact assessment rispetto ai diritti fondamentali di queste tecnologie. Si verrà così a creare un enorme mercato correlato all’AI Act. Nell’assenza di una disciplina normativa di dettaglio e, in prima battuta almeno, di questi standard, un ruolo fondamentale lo giocheranno quei soggetti che saranno pronti ad intervenire offrendo un prodotto di certificazione e assessment che offra sufficienti garanzie, anche – se pure non solo – rispetto ad eventuali profili di responsabilità. Un’errata qualificazione di un sistema di intelligenza artificiale – ad esempio erratamente non considerato ad alto rischio ai sensi dell’art. 6 AIA oppure non identificato come proibito ai sensi dell’art. 5 AIA – potrebbe esporre l’impresa a sanzioni anche rilevanti (7% del fatturato globale).
In assenza di una disciplina normativa ancora da definire nei suoi aspetti più operativi (ma essenziali), chi sarà in grado di offrire sul mercato un prodotto di certificazione e una delle best practices convincenti, potrà presto affermarsi come leader di questo mercato. Costoro, in ultima istanza, contribuiranno in modo decisivo a definire il contenuto operativo dell’AI Act e i criteri a cui le imprese che vorranno fare innovazione dovranno attenersi.
Probabilmente, grandi player globali attivi da molti anni nella frontiera tecnologica, che hanno elaborato best practices interne partendo dalla regolazione in materia di dati, potranno offrire questi servizi prima e meglio di altri, dominando presto il mercato. Molto probabilmente si tratterà di player non europei o comunque principalmente non europei che, con le loro soluzioni, potranno influenzare significativamente la reale portata applicativa di quello che, nelle intenzioni della Commissione Europea, dovrebbe rappresentare “l’approccio europeo” alla IA.
Alla fine di questo processo però potremmo forse domandarci quanto di europeo sarà rimasto e, similmente, potremmo valutare se si sia verificato quell’”effetto Bruxelles”, su cui la Commissione ha chiaramente scommesso, ovvero se il modello dello AI Act avrà saputo influenzare la regolazione della tecnologia a livello globale e oltre i confini degli stati membri.
Continua la lettura su: https://www.ilsole24ore.com/art/come-verranno-decisi-standard-e-certificazioni-dell-intelligenza-artificiale-europa-AF7zs2nC Autore del post: Il Sole24Ore Tecnologia Fonte:
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale Chiedi tutte le informazioni a genitoridigitali@koinokalo.it |