AI, la California blocca la super legge: quale lezione per l’Europa

Il veto del governatore della California Gavin Newsom sulla legge SB 1047 costituisce un evento di rilevanza non solo per la California, ma per l’intero dibattito globale sulla regolamentazione dell’intelligenza artificiale.

Questo intervento legislativo avrebbe imposto standard di sicurezza molto stringenti per i modelli IA più complessi, obbligando le aziende a certificare la sicurezza dei loro sistemi prima di poterli implementare.

Indice degli argomenti

Il veto di Newsom e la competitività della California nel campo dell’IA

Newsom ha giustificato il veto sostenendo che la proposta fosse eccessivamente ampia e non sufficientemente flessibile, applicando criteri restrittivi anche a modelli utilizzati in contesti a basso rischio. Egli ha sottolineato come la legge avrebbe potuto soffocare l’innovazione, minando la competitività economica di uno stato che ospita la maggior parte delle grandi aziende tecnologiche globali​.

Il veto californiano apre un dibattito cruciale su come i governi possano regolamentare tecnologie avanzate come l’IA senza ostacolare il progresso. Mentre la proposta legislativa mirava a garantire la sicurezza pubblica contro scenari di rischio elevato, come la creazione di armi biologiche o disastri economici causati da malfunzionamenti IA, il governatore ha preferito un approccio più calibrato, che equilibri sicurezza e innovazione.

Le motiviazioni alla base del veto alla legge SB 1047

Il veto di Gavin Newsom alla legge SB 1047 poggia su due grandi considerazioni. La motivazione principale risiede in un’analisi approfondita del rapporto tra regolamentazione e innovazione: la proposta legislativa era giudicata eccessivamente ampia, incapace di operare le dovute distinzioni tra le diverse tipologie di IA e i relativi contesti di applicazione. In particolare, Newsom ha criticato il fatto che la legge imponesse gli stessi standard di sicurezza sia ai modelli utilizzati in ambiti ad alto rischio, come la salute o la sicurezza nazionale, sia a quelli impiegati in settori di minore criticità. Questo approccio omogeneizzante, secondo il governatore, finiva per gravare inutilmente anche sulle innovazioni meno pericolose, penalizzando di fatto l’intero ecosistema tecnologico californiano.

I rischi di una burocrazia inutile per lo sviluppo dell’IA

La legge, secondo Newsom, avrebbe introdotto una burocrazia inutile che avrebbe potuto scoraggiare la sperimentazione e lo sviluppo di nuovi modelli di IA, particolarmente da parte di piccole start-up che non dispongono delle risorse necessarie per affrontare una regolamentazione così rigida. Il rischio, come sottolineato, era quello di “uccidere” l’innovazione prima ancora che potesse esprimere il proprio potenziale, rallentando il progresso tecnologico in uno degli stati più avanzati al mondo sul fronte della tecnologia. La sua posizione non implica un rifiuto assoluto della regolamentazione, bensì la ricerca di una regolamentazione “intelligente”, che sia proporzionata al tipo di rischio e al contesto specifico in cui l’IA viene utilizzata.

Le riflessioni da trarre dalle considerazioni di Gavin Newsom

Ben altra storia si snoda in terra nostrana, ma tante sono le riflessioni che si possono trarre danna vicenda californiana.

L’AI Act e le categorie di rischio dell’IA

Come diffusamente sostenuto, I’AI Act adotta un approccio basato sul rischio, con l’intento di tutelare diritti fondamentali e garantire la sicurezza dei cittadini, senza però frenare l’innovazione. Il quadro regolamentare è profondamente radicato nei valori fondativi dell’UE, come il rispetto della dignità umana e la protezione dei diritti civili, costituendo un vero modello di governance per l’IA a livello internazionale.

Il cuore del regolamento risiede nella classificazione dei sistemi di IA in quattro categorie di rischio: minimo, limitato, elevato e inaccettabile. I sistemi a rischio minimo, come i filtri antispam, non sono soggetti a particolari restrizioni, mentre quelli ad alto rischio – ad esempio, l’IA impiegata nella selezione del personale o nei sistemi di credito – devono rispettare requisiti rigorosi, tra cui la valutazione dell’impatto, la trasparenza dei dati, e l’implementazione di meccanismi di governance del rischio. Al vertice della piramide regolamentare, i sistemi classificati come inaccettabili – come il riconoscimento facciale in tempo reale da parte delle autorità pubbliche o i modelli di punteggio sociale – sono espressamente vietati, in quanto considerati intrinsecamente pericolosi per i diritti fondamentali dei cittadini.

L’approccio Ue alla regolamentazione IA: prevenire i rischi per la coesione sociale

La sofisticazione del regime normativo europeo emerge anche dalla capacità di anticipare rischi tecnologici che potrebbero minare la coesione sociale o favorire discriminazioni. L’atto obbliga i fornitori di modelli IA generali (GPAI) a garantire trasparenza, conformità con la normativa sui dati personali e la sicurezza nella progettazione del sistema, facendo della regolamentazione un processo continuo e adattabile. Questo sistema mira a bilanciare l’innovazione con un controllo normativo capillare e prospettico, favorendo lo sviluppo di un’IA etica, sicura e trasparente, in un contesto di conformità multilivello e di stretta supervisione da parte delle autorità nazionali e sovranazionali.

La strategia italiana sull’IA nel contesto europeo

Le prospettive italiane in merito all’intelligenza artificiale (IA) per il triennio 2024-2026 si concentrano su una strategia ambiziosa, articolata e profondamente integrata con il quadro normativo europeo. Il piano, redatto dall’Agenzia per l’Italia Digitale (AgID) e dal Dipartimento per la Trasformazione Digitale, mira a costruire un ecosistema in cui l’IA sia al servizio della crescita economica, del benessere sociale e del progresso scientifico, in linea con i valori di etica e sostenibilità propri della tradizione normativa europea.

I tre macro-obiettivi fondamentali della strategia italiana

Al centro della strategia vi sono tre macro-obiettivi fondamentali:

  • in primo luogo, l’Italia intende sviluppare e adottare applicazioni di IA specificamente calibrate sulle necessità nazionali, evitando dipendenze tecnologiche dall’estero e concentrandosi su settori chiave come la sanità, la protezione ambientale, l’istruzione e la pubblica amministrazione.
  • In secondo luogo, si punta a rafforzare la ricerca scientifica, sia di base che applicata, incentivando progetti interdisciplinari che possano contribuire a risolvere problemi complessi di rilevanza sociale.
  • In terzo luogo, il piano prevede la creazione di condizioni ottimali per la generazione di valore attraverso l’IA, promuovendo la formazione continua, il miglioramento dei servizi pubblici e l’efficienza amministrativa.

Focus sulla formazione e le competenze

La strategia include anche un’enfasi particolare sulla formazione. L’Italia, riconoscendo un deficit di competenze nel campo dell’IA, prevede programmi di reskilling e upskilling per i lavoratori, insieme all’introduzione di corsi di IA a tutti i livelli scolastici e universitari. Questa attenzione alla formazione non solo risponde all’esigenza di colmare il gap di conoscenze tecnologiche, ma intende anche rafforzare la competitività del Paese nel lungo termine.

Potenziare il ruolo delle piccole e medie imprese nel panorama IA

In termini di imprese, la strategia mira a potenziare il ruolo delle piccole e medie imprese (PMI) nel panorama dell’IA, fornendo supporto finanziario e tecnico per l’adozione di soluzioni innovative. Il sostegno a startup e aziende emergenti nel campo dell’IA è al centro del programma, con l’obiettivo di creare un sistema economico in cui l’innovazione sia non solo incentivata, ma anche regolamentata in modo conforme agli standard europei di sicurezza e trasparenza.

Le implicazioni pratiche dell’AI Act per le aziende tecnologiche italiane ed europee

Le implicazioni pratiche dell’AI Act dell’Unione Europea per le aziende tecnologiche italiane ed europee sono profonde e richiedono una strategia di conformità altamente strutturata.

Gestione del rischio ecompliance

Le imprese, specialmente quelle che operano con sistemi IA classificati come “ad alto rischio”, devono innanzitutto implementare un solido sistema di gestione del rischio e compliance. Il regolamento stabilisce requisiti chiari per garantire la sicurezza e il rispetto dei diritti fondamentali, imponendo l’obbligo di eseguire valutazioni di impatto sui diritti fondamentali e di assicurare una supervisione umana costante. Questo implica la nomina di personale qualificato per monitorare il funzionamento dei sistemi IA, con il compito di intervenire in caso di anomalie o malfunzionamenti.

Gestione dei dati in ingresso

Le aziende dovranno inoltre adottare una rigorosa gestione dei dati in ingresso: i dati utilizzati per addestrare i sistemi IA devono essere rappresentativi e qualitativamente adeguati rispetto agli scopi previsti. Ogni variazione del sistema richiede una documentazione accurata e, nel caso dei sistemi IA ad alto rischio, sarà necessario tenere traccia delle operazioni per almeno sei mesi. Un ulteriore punto cruciale riguarda la trasparenza, sia verso le autorità regolatorie sia verso i soggetti coinvolti dall’uso del sistema IA. Le imprese devono informare tempestivamente su qualsiasi incidente grave che possa compromettere la sicurezza o i diritti degli utenti.

Armonizzazione tra AI Act e Gdpr

La conformità non si limita però agli aspetti tecnici: le imprese devono integrare i nuovi requisiti normativi con altre leggi europee, come il GDPR, assicurando che ogni trattamento di dati sia conforme alle normative vigenti sulla privacy e la protezione dei dati. Questo implica anche una cooperazione attiva con le autorità nazionali ed europee, nonché la partecipazione a codici di condotta o pratiche volontarie per garantire una maggiore armonizzazione normativa.

Le imprese devono prevedere un audit continuo e investire in formazione interna per accrescere le competenze del personale sulla gestione dei sistemi IA e sulla normativa. Solo attraverso una strategia olistica, che combina gestione del rischio, trasparenza e monitoraggio costante, le aziende potranno navigare il complesso panorama normativo europeo.

AI Act, repuazione e affidabilità: le opportunità per le imprese italiane

L’adozione dell’AI Act da parte dell’Unione Europea apre a numerose opportunità per le aziende tecnologiche europee e italiane, in particolare grazie al rafforzamento del concetto di affidabilità nell’intelligenza artificiale. L’AI Act consente alle imprese di costruire una reputazione di affidabilità e sicurezza, offrendo soluzioni IA conformi a standard normativi chiari e globalmente riconosciuti. Questo conferisce alle aziende europee un vantaggio competitivo rispetto a quelle operanti in contesti regolatori meno rigorosi, come gli Stati Uniti o la Cina, dove l’assenza di normative simili può determinare una minore percezione di sicurezza da parte dei consumatori. La prima mossa europea di regolamentazione può dunque non solo consolidare la fiducia dei consumatori, ma anche aprire nuove opportunità di mercato nel lungo termine, creando uno standard globale di riferimento che altri Paesi potrebbero seguire.

Le aziende che saranno in grado di conformarsi prontamente alle richieste del regolamento, che includono valutazioni d’impatto sui diritti fondamentali, controllo umano e trasparenza nei dati utilizzati, vedranno rafforzata la loro posizione, soprattutto nei settori ad alto rischio, come la sanità, i servizi finanziari e la sorveglianza biometrica. Inoltre, l’armonizzazione del mercato digitale europeo favorirà una concorrenza leale e uniforme, abbattendo le frammentazioni regolative tra Stati membri e offrendo una piattaforma comune per l’innovazione tecnologica.

Ai Act: implicazioni operative significative per le imprese

Tuttavia, vi sono implicazioni operative significative: il rispetto delle severe norme di compliance può richiedere investimenti iniziali rilevanti, sia in termini di risorse umane che di strutture tecnologiche. Inoltre, il percorso per adeguarsi alle rigide procedure di conformità potrebbe dilatare i tempi di sviluppo e rilascio dei nuovi prodotti IA, creando un possibile ritardo competitivo rispetto alle aziende in regioni con normative meno restrittive. In questo contesto, le imprese europee dovranno essere pronte a gestire questi equilibri complessi tra innovazione e conformità.

Le lezioni da trarre dal veto californiano

Il dibattito statunitense, culminato con il veto di Gavin Newsom alla legge SB 1047, offre all’Unione Europea e all’Italia alcune lezioni fondamentali sulla regolamentazione dell’intelligenza artificiale. Da un lato, gli Stati Uniti, e in particolare la California, dimostrano una resistenza significativa a normative rigide che possano soffocare l’innovazione. Newsom ha respinto una legge che, pur circoscritta a un ambito specifico, avrebbe imposto severe restrizioni ai modelli IA più avanzati. Questa decisione riflette un approccio che enfatizza la flessibilità normativa e il timore di perdere competitività globale nel settore tecnologico.

L’UE e l’Italia possono trarre insegnamenti rilevanti da questa esperienza, in particolare nella ricerca di un equilibrio tra protezione dei diritti fondamentali e promozione dell’innovazione.

Evitare regole che ampliano il gap competitivo tra Ue e Usa

L’Artificial Intelligence Act europeo pone al centro la tutela della sicurezza e dei diritti dei cittadini, ma è cruciale evitare che una regolamentazione eccessiva crei un divario competitivo tra Europa e Stati Uniti, dove le aziende operano in un contesto più permissivo. In tal senso, l’approccio americano suggerisce che un sistema di regolamentazione modulare, basato su una valutazione continua dei rischi, possa incentivare la sperimentazione controllata senza sacrificare la sicurezza.

L’importanza di mantenere un equilibrio tra gli interessi delle aziende e quelli pubblici

Inoltre, la forte influenza dell’industria tecnologica sul legislatore statunitense, come dimostrato dalle pressioni sul governatore Newsom, invita l’Europa a riflettere sull’importanza di mantenere un equilibrio tra gli interessi delle aziende e quelli pubblici, promuovendo trasparenza e accountability. Le tensioni tra regolamentazione e innovazione, evidenti in California, sottolineano la necessità di un dialogo costante tra legislatori, esperti e industria per aggiornare costantemente il quadro normativo, evitando che diventi troppo rigido o superato.

La necessità di regole flessibili per non frenare la creatività tecnologica e lo sviluppo economico

Il binomio tra innovazione e regolamentazione rappresenta uno degli assi portanti delle politiche tecnologiche globali. L’innovazione, particolarmente nel settore dell’intelligenza artificiale, richiede un contesto normativo che garantisca libertà di sperimentazione, velocità di sviluppo e accesso ai mercati. Tuttavia, l’assenza di regole potrebbe condurre a usi distorti o dannosi della tecnologia, compromettendo diritti fondamentali, sicurezza e privacy. La regolamentazione, in tal senso, funge da argine necessario per prevenire abusi, ma deve essere sufficientemente flessibile per non frenare la creatività tecnologica e lo sviluppo economico.

L’approccio Ue: opportunità e rischi

In Europa, con l’adozione dell’AI Act, si cerca di promuovere un modello di innovazione responsabile, basato sulla sicurezza, trasparenza e rispetto dei diritti. La sfida è complessa: bilanciare la necessità di stimolare nuove tecnologie con la tutela dei cittadini e la preservazione di un mercato equo. L’approccio europeo, che punta su una regolamentazione ex ante per i sistemi IA ad alto rischio, crea un ambiente sicuro per l’adozione di nuove soluzioni tecnologiche, ma pone rischi di eccessiva burocratizzazione.

D’altro canto, il veto di Gavin Newsom alla proposta di legge sulla regolamentazione dei modelli IA avanzati in California mette in luce un percorso alternativo. Il rifiuto di una regolamentazione stringente, con la promessa di elaborare un quadro più flessibile, indica la preferenza statunitense per un approccio dinamico, che privilegia l’innovazione. Questo modello, meno focalizzato su una regolazione rigida e preventiva, consente un più ampio margine di manovra alle imprese tecnologiche, ma può risultare rischioso in termini di protezione degli utenti e dei diritti fondamentali.

Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/mercati-digitali/regole-per-lia-troppo-rigide-frenano-linnovazione-il-veto-californiano-e-la-lezione-per-leuropa/

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

Targeting comportamentale: così le aziende “pilotano” le nostre scelte online

La raccolta dati e il targeting comportamentale sono strumenti essenziali per le imprese, ma sollevano importanti questioni di privacy e conformità normativa. Esploriamo le metodologie di raccolta dati, le tecniche di targeting comportamentale, le implicazioni giuridiche e le sfide etiche, evidenziando la necessità di un equilibrio tra innovazione e tutela dei diritti
L’articolo Targeting comportamentale: così le aziende “pilotano” le nostre scelte online proviene da Agenda Digitale.

AI Act e Gdpr: come si integrano le norme sulla protezione dei dati

L’AI Act regolamenta in maniera organica lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale. La disciplina della protezione dei dati personali resta però primariamente affidata al GDPR. In questo quadro normativo, la compliance in materia di data protection nel contesto dell’intelligenza artificiale presenta molteplici e sfidanti questioni interpretative
L’articolo AI Act e Gdpr: come si integrano le norme sulla protezione dei dati proviene da Agenda Digitale.

[mwai_chatbot id="chatbot-h9et3q"]