OpenAI, via alla nuova governance: comitato security indipendente dal cda

Il comitato per la sicurezza di OpenAI, introdotto appena quattro mesi fa, a maggio, diventerà un organo indipendente di supervisione del consiglio di amministrazione. Il gruppo sarà presieduto da Zico Kolter, direttore del dipartimento di apprendimento automatico presso la scuola di informatica della Carnegie Mellon University. Tra gli altri membri figurano Adam D’Angelo, membro del consiglio di amministrazione di OpenAI e cofondatore di Quora, l’ex capo dell’Nsa e membro del consiglio di amministrazione Paul Nakasone e Nicole Seligman, ex vicepresidente esecutivo di Sony.

Indice degli argomenti

Il ruolo del comitato

Come entità indipendente, il comitato supervisionerà “i processi di sicurezza che guidano l’implementazione e lo sviluppo del modello di OpenAI”, ha dichiarato la società. L’organo ha recentemente concluso la sua revisione di 90 giorni, valutando i processi e le misure adottate da OpenAI e formulando raccomandazioni al consiglio di amministrazione. OpenAI renderà noti i risultati del gruppo in un post pubblico sul blog aziendale.

Le cinque raccomandazioni chiave del comitato includono la necessità di stabilire una governance indipendente per la sicurezza, di migliorare le misure di sicurezza, di essere trasparenti sul lavoro di OpenAI, di collaborare con organizzazioni esterne e di unificare i quadri di sicurezza dell’azienda.

In definitiva, il comitato “insieme all’intero consiglio di amministrazione, eserciterà la supervisione sul lancio dei modelli di intelligenza artificiale, avendo anche l’autorità di ritardare il rilascio fino a quando non saranno risolti i problemi di sicurezza”.

Il gruppo di lavoro dovrà anche cercare di appianare una serie di criticità emerse negli ultimi mesi. A maggio, un ex membro del consiglio di amministrazione di OpenAI, parlando della temporanea estromissione di Altman a novembre, ha dichiarato di aver fornito al consiglio “informazioni inesatte sul numero esiguo di processi formali di sicurezza che l’azienda aveva in atto” in diverse occasioni. Lo stesso mese, OpenAI ha deciso di sciogliere il suo team che si occupa dei rischi a lungo termine dell’AI, appena un anno dopo aver annunciato il gruppo. I leader del gruppo, Ilya Sutskever e Jan Leike, hanno annunciato le loro dimissioni da OpenAI e in un post su X, Leike ha scritto che “la cultura e i processi di sicurezza di OpenAI sono passati in secondo piano rispetto ai prodotti più brillanti”.

Nuove risorse per il team di cybersecurity

Oltre all’autonomia del comitato, la società ha annunciato anche un rafforzamento del team che si occupa di cybersecurity, definita “una componente critica della sicurezza dell’AI”. OpenAI dichiara che continuerà “ad adottare un approccio basato sul rischio alle nostre misure di sicurezza e ad evolvere il nostro approccio in base al cambiamento del modello di minaccia e dei profili di rischio dei nostri modelli. Stiamo cercando di ampliare la segmentazione delle informazioni interne, di aumentare il personale per rafforzare i team operativi di sicurezza 24 ore su 24 e di continuare a investire nelle iniziative in corso per migliorare la sicurezza dell’infrastruttura di ricerca e di prodotto di OpenAI. Nell’ambito dell’esame del comitato per la sicurezza, abbiamo individuato ulteriori opportunità di collaborazione con il settore e di condivisione delle informazioni per migliorare la sicurezza dell’industria dell’AI. Ad esempio, stiamo valutando attentamente lo sviluppo di un Centro di condivisione e analisi delle informazioni per il settore, per consentire la condivisione di informazioni sulle minacce e sulla sicurezza informatica tra le entità del comparto, al fine di migliorare la nostra resilienza collettiva contro le minacce informatiche”.

OpenAI dice addio al modello no profit?

Ma le novità non finiscono qui, almeno stando ad alcune indiscrezioni. Sam Altman, infatti, avrebbe comunicato ai dipendenti che l’azienda cambierà la sua struttura no-profit il prossimo anno. Lo dicono le fonti di Forbes, secondo cui la mossa segna un punto di svolta per l’organizzazione, che abbraccerà una più tradizionale forma societaria. Nata nel 2015 come soggetto senza scopo di lucro, OpenAI ha inizialmente fatto affidamento su donazioni per finanziare la sua ricerca. Tuttavia, l’azienda ha presto realizzato che questo modello non era sostenibile per supportare i costi elevati della potenza di calcolo e dei talenti necessari per portare avanti i suoi ambiziosi progetti di intelligenza artificiale.

Per ovviare a questo problema, OpenAI ha creato una sussidiaria a scopo di lucro, controllata dall’entità principale no-profit. Questa struttura ha a sua volta dato vita a un sistema in cui i profitti che possono essere assegnati agli investitori, tra cui Microsoft, sono limitati. Stando a un rapporto di The Information pubblicato a giugno, OpenAI ha raddoppiato i ricavi annuali nella prima metà dell’anno, grazie alla versione in abbonamento di ChatGpt. Per Forbes, la decisione di passare a un modello a scopo di lucro è motivata dalla necessità di OpenAI di accedere a maggiori risorse finanziarie per sostenere la crescita e i progetti futuri.

La forma attuale, sebbene abbia permesso di raccogliere investimenti significativi, limita anche la capacità di remunerare gli investitori e di attrarre nuovi capitali. Il sito sottolinea che l’entità no-profit continuerà a esistere e a svolgere un ruolo fondamentale nella missione dell’azienda anche se resta da vedere come il nuovo modello influenzerà le future decisioni e strategie di OpenAI.

Autore del post: CorCom Fonte: https://www.corrierecomunicazioni.it/ Continua la lettura su: https://www.corrierecomunicazioni.it/digital-economy/openai-via-alla-nuova-governance-comitato-security-indipendente-dal-cda/

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

Targeting comportamentale: così le aziende “pilotano” le nostre scelte online

La raccolta dati e il targeting comportamentale sono strumenti essenziali per le imprese, ma sollevano importanti questioni di privacy e conformità normativa. Esploriamo le metodologie di raccolta dati, le tecniche di targeting comportamentale, le implicazioni giuridiche e le sfide etiche, evidenziando la necessità di un equilibrio tra innovazione e tutela dei diritti
L’articolo Targeting comportamentale: così le aziende “pilotano” le nostre scelte online proviene da Agenda Digitale.

PA 2030: l’IA e la rivoluzione delle competenze e dei concorsi

L’intelligenza artificiale sta trasformando la pubblica amministrazione, richiedendo nuove competenze e ruoli. Entro il 2030, i concorsi pubblici dovranno adattarsi, integrando competenze digitali e problem-solving. Reskilling e formazione continua diventeranno essenziali per preparare i dipendenti pubblici alle sfide future
L’articolo PA 2030: l’IA e la rivoluzione delle competenze e dei concorsi proviene da Agenda Digitale.