Rischi dell’Intelligenza Artificiale: Avvertimento da Dipendenti di OpenAI e Google DeepMind
Un’altra lettera che mette in guardia sui rischi dell’intelligenza artificiale, firmata da tredici dipendenti (ed ex dipendenti) di OpenAI e Google DeepMind, i due laboratori di ricerca più avanzati al mondo sull’IA, rinforza i timori di chi crede che questa tecnologia rivoluzionaria possa costituire un serio pericolo per gli esseri umani.
Nel documento chiamato “A Right to Warn about Advanced Artificial Intelligence”, si legge che “i sistemi di intelligenza artificiale che apprendono in modo autonomo” potrebbero determinare, sfuggendo al controllo umano, “l’estinzione dell’umanità”.
L’allarme non è nuovo. Esattamente un anno fa, l’organizzazione no profit Center for AI Safety ha pubblicato una lettera apocalittica – firmata da scienziati e imprenditori – in cui gli effetti di una intelligenza artificiale fuori controllo vengono paragonati a quelli di una pandemia o di una guerra nucleare.
Stavolta però è diverso.
Il nuovo avvertimento sui pericoli dell’IA proviene da chi lavora concretamente ai modelli di intelligenza artificiale su cui si basano ChatGpt (OpenAI), Gemini (Google) e Copilot (Microsoft), tutti esempi di chatbot che milioni di persone utilizzano ogni giorno per generare testi e immagini.
“Siamo dipendenti ed ex dipendenti di aziende all’avanguardia nell’intelligenza artificiale e crediamo che questa tecnologia possa fornire benefici senza precedenti all’umanità” si legge all’inizio della lettera firmata da chi conosce (bene) OpenAI e Google DeepMind.
Ma poi il registro cambia.
“Ma siamo anche consapevoli dei rischi legati all’IA, che vanno dal rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita del controllo sui sistemi di intelligenza artificiale autonomi che potrebbe determinare l’estinzione degli esseri umani”.
Chi lavora – o ha lavorato – all’IA di OpenAI e Google, le due aziende in lotta per il dominio del mercato dell’intelligenza artificiale generativa, è preoccupato dal fatto che le big tech non stiano facendo abbastanza per mitigare le insidie derivanti dallo sviluppo di questa tecnologia. E, anzi, non abbiano alcun interesse a farlo.
Gli appelli della comunità scientifica e gli sforzi della politica, che intende mettere in sicurezza l’IA con una legislazione adeguata, potrebbero non avere gli esiti sperati se le aziende che sviluppano questa tecnologia non faranno la loro parte.
Intelligenza artificiale
G7, undici “regole” per una AI più sicura: c’è l’accordo sul Codice di condotta internazionale
30 Ottobre 2023
“Le società che sviluppano intelligenza artificiale hanno interessi economici tali da eludere una supervisione efficace – scrivono i dipendenti e gli ex dipendenti di OpenIA e Google DeepMind -. E non crediamo che strutture di governance aziendale personalizzate siano sufficienti a cambiare la situazione. Queste società possiedono informazioni riservate importanti sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio e di danni che la loro tecnologia potrebbe causare. Tuttavia, attualmente non hanno seri obblighi a condividere alcune di queste informazioni con i governi, e nessuno con la società civile. Non pensiamo che si possa fare affidamento su queste società affinché le condividano volontariamente”.
Intelligenza artificiale
OpenAi avvia l’addestramento di una nuova Intelligenza artificiale
28 Maggio 2024
Nella lettera di quello che potrebbe diventare un movimento, “Right to Warn”, si chiede quindi una “protezione” maggiore per i dipendenti intenzionati a denunciare, se fosse necessario, rischi incombenti legati all’IA che invece le aziende non intendono divulgare.
“I dipendenti e gli ex dipendenti sono tra i pochi che possano chiamare le aziende a rispondere di fronte al pubblico. Tuttavia, ampi accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, se non alle stesse società che potrebbero non affrontare adeguatamente queste problematiche. Le normali protezioni per i whistleblower non sono sufficienti perché si concentrano su attività illegali, mentre molti dei rischi che ci preoccupano non sono ancora regolamentati. Alcuni di noi temono ragionevolmente rappresaglie di vario tipo”.
Per questi motivi i firmatari della nuova lettera sui pericoli dell’IA chiedono alle aziende di aderire a una serie di principi, tra cui quello per cui “le società non stipuleranno o applicheranno alcun accordo che vieti la “denigrazione” o la critica nei loro confronti per questioni relative ai rischi, né adotteranno ritorsioni per critiche legate ai rischi ostacolando i benefici economici maturati [dai dipendenti]”.
Continua la lettura su: https://www.repubblica.it/tecnologia/2024/06/05/news/lettera_rischi_intelligenza_artificiale_dipendenti_openai_google-423172737/?rss Autore del post: La Repubblica Tecnologia Fonte:
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale Chiedi tutte le informazioni a genitoridigitali@koinokalo.it |