OpenAI ha svelato i suoi ultimi
modelli di intelligenza artificiale, o3 e o4-mini. La novità
principale è la possibilità per le IA di eseguire ragionamenti
complessi sulle immagini caricate. “Per la prima volta, i nostri
modelli possono pensare con le immagini nella loro catena di
pensiero, non solo vederle” afferma OpenAI in un post sul blog
ufficiale. Il fine è integrare le informazioni visive nelle foto
nel processo di risposta. Grazie a ciò, è possibile caricare
contenuti tra cui diagrammi o schizzi, anche sfocati o di bassa
qualità, e ChatGpt sarà in grado di capirli e modificarli in
tempo reale, ad esempio ruotando o ingrandendo dei particolari,
come parte del ragionamento. Soprattutto quando si usa il
chatbot sul telefono, non ci si deve preoccupare della qualità
dell’immagine scattata o del posizionamento corretto degli
elementi; ChatGpt potrà comprendere i dati per usarli nella
formulazione della risposta. Come i predecessori, o3 e o4-mini
sono stati progettati con l’obiettivo di riflettere più a fondo.

   
Questa caratteristica li rende “i modelli più intelligenti che
abbiamo rilasciato finora” continua OpenAI, “e rappresentano un
cambiamento radicale nelle capacità di ChatGpt”. Nello
specifico, o3 è progettato per affrontare interrogativi
complessi che richiedono valutazioni sofisticate e sfaccettate,
spesso in contesti dove le risposte non sono immediate o
univoche. o4-mini è invece una versione più compatta e
ottimizzata per compiti di ragionamento rapidi e a basso costo.

   
Nonostante le sue dimensioni ridotte, OpenAI sottolinea che il
modello ha stabilito nuovi standard di accuratezza, soprattutto
in contesti come le materie tecnico-scientifiche, Stem. o3 e
o4-mini sono già accessibili per gli utenti con un piano a
pagamento ChatGpt Plus, Pro e Team, mentre arriveranno a breve
per ChatGpt Enterprise ed Edu. Gli utenti free possono testare
o4-mini selezionando ‘Think’ nella schermata di composizione del
prompt.

   

Riproduzione riservata © Copyright ANSA

source