OpenAI, ecco cos’era Strawberry: svelato o1, il nuovo modello che “pensa” prima di rispondere

OpenAI ha lanciato o1, un modello di intelligenza artificiale che finora era noto con il nome “in codice” Strawberry.

Una foto a una piantina di fragole, scattata qualche tempo fa da Sam Altman e pubblicata sui social, aveva alimentato l’attesa per una IA che è stata annunciata come un notevole passo in avanti per OpenAI, l’azienda di San Francisco che ha creato ChatGpt.

OpenAI o1 è un nuovo modello linguistico di grandi dimensioni. È stato addestrato con l’apprendimento per rinforzo per eseguire ragionamenti complessi.

OpenAI sostiene che “o1 pensa prima di rispondere: può produrre una lunga catena interna di pensiero prima di rispondere all’utente”.

“OpenAI o1 si classifica all’89° percentile nelle domande di programmazione competitiva (Codeforces) – si legge sul blog ufficiale dell’azienda californiana -. Inoltre si colloca tra i primi 500 studenti negli Stati Uniti in una qualificazione per l’USA Math Olympiad (AIME) e supera la precisione umana a livello di dottorato in un benchmark di problemi di fisica, biologia e chimica (GPQA)”.

OpenAI è ancora al lavoro sul nuovo modello, ma nel frattempo ha deciso di rilasciare immediatamente una preview di o1 agli utenti Plus e Team.

Il motivo lo spiega Noam Brown, uno dei ricercatori che ha lavorato allo sviluppo di o1 e delle sue capacità legate al ragionamento: “I nostri modelli o1 non sono sempre migliori di GPT-4o – [il modello più avanzato attualmente disponibile su ChatGpt, ndr] -. Molti compiti non richiedono ragionamento, e a volte non vale la pena aspettare una risposta di o1 rispetto a una risposta rapida di GPT-4o. Una motivazione per il rilascio di o1-preview è quella di vedere quali casi d’uso diventano popolari e dove i modelli hanno bisogno di lavoro”.

[[(FckEditorEmbeddedHtmlLayoutElement) brown]]

Un grafico pubblicato da Brown, che si riferisce ai casi in cui Gpt-4o viene utilizzato più di o1, e viceversa, evidenzia come per esempio il nuovo modello non sia la prima scelta per chi usa ChatGpt per scrivere, per esempio, o editare testo già scritto.

Diverso è il discorso per coloro che scrivono codici di programmazione, fanno analisi dei dati oppure hanno bisogno di effettuare calcoli matematici. In questi casi, l’utilizzo di o1 cresce sensibilmente, arrivando al 75% quando si tratta di risolvere quesiti matematici.

“Proprio come un umano potrebbe pensare a lungo prima di rispondere a una domanda difficile, o1 utilizza una catena di pensiero quando cerca di risolvere un problema – spiega OpenAI sul suo blog -. Attraverso l’apprendimento per rinforzo, o1 impara ad affinare la sua catena di pensiero e a perfezionare le strategie che utilizza. Impara a riconoscere e correggere i propri errori. Impara a suddividere i passaggi complessi in passaggi più semplici. Impara a provare un approccio diverso quando quello attuale non funziona. Questo processo migliora drasticamente la capacità del modello di ragionare”.

Il più delle volte o1 ragiona solo per alcuni secondi, prima di generare la sua risposta.

“Ma puntiamo a versioni future – spiega Brown – che pensino per ore, giorni, persino settimane. I costi di inferenza saranno più alti, ma quale costo pagheresti per un nuovo farmaco contro il cancro? Per batterie innovative? Per una dimostrazione dell’ipotesi di Riemann? L’intelligenza artificiale può essere più di un chatbot”.

Continua la lettura su: https://www.repubblica.it/tecnologia/2024/09/12/news/openai_o1_strawberry_nuovo_modello_intelligenza_artificiale_chatgpt_come_funziona-423494121/?rss Autore del post: La Repubblica Tecnologia Fonte:

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

AI Act e Gdpr: come si integrano le norme sulla protezione dei dati

L’AI Act regolamenta in maniera organica lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale. La disciplina della protezione dei dati personali resta però primariamente affidata al GDPR. In questo quadro normativo, la compliance in materia di data protection nel contesto dell’intelligenza artificiale presenta molteplici e sfidanti questioni interpretative
L’articolo AI Act e Gdpr: come si integrano le norme sulla protezione dei dati proviene da Agenda Digitale.

Con l’IA a scuola gli studenti imbrogliano di più? Ecco come stanno le cose

L’inizio dell’anno scolastico 2024-25 in Italia riporta in primo piano il tema dell’intelligenza artificiale nello studio e il timore del cheating. Le ricerche di Turnitin e altri studi internazionali suggeriscono che l’IA non ha aumentato significativamente gli imbrogli, ma cresce il sospetto tra insegnanti e adulti
L’articolo Con l’IA a scuola gli studenti imbrogliano di più? Ecco come stanno le cose proviene da Agenda Digitale.

[mwai_chatbot id="chatbot-h9et3q"]