OpenAI svela GPT-4o: tutte le novità del nuovo modello

Potrà supportare conversazioni in audio e video in tempo reale e rilevare espressioni facciali
gpt 4o
OpenAI

OpenAI ha mantenuto le promesse, introducendo il nuovo modello chiamato GPT-4o, che sarà disponibile gratuitamente per tutti gli utenti registrati, aggiungendo funzioni che prima erano solo per chi pagava. Durante l'evento in streaming sono state snocciolate diverse novità sui suoi servizi basati sull'intelligenza artificiale, che saranno diffuse in modo pubblico a breve. La nuova versione del modello (la “o” sta per omni, visto l'approccio a 360 gradi) apporta miglioramenti significativi rispetto a GPT-4 Turbo, come la possibilità di poter interagire con conversazioni in tempo reale e in modalità audio e video con chatbot emozionali, che possono anche rilevare e interpretare le espressioni facciali umane. In arrivo anche un'app ChatGPT dedicata ai Mac.

L'amministratore delegato della società Sam Altam aveva anticipato già durante la mattinata che, contrariamente alle attese, gli aggiornamenti non avrebbero riguardato né GPT-5 né un motore di ricerca sviluppato da OpenAI. "Abbiamo lavorato sodo su alcune novità che pensiamo piaceranno molto alla gente. Mi sembra una magia", ha scritto l'ad. L'evento – che arriva un giorno prima di Google I/O, la conferenza per gli sviluppatori del colosso di Mountain View è andato in scena alle ore 19 italiane. Qui sotto la replica, che si può visualizzare anche sul sito di OpenAI che su YouTube.

La replica integrale dell'evento

Le novità di GPT-4o

Il nuovo modello GPT-4o può interpretare le espressioni facciali attraverso le fotocamere dello smartphone così da rilevare le emozioni e regolare tono e risposte di conseguenza, magari aggiungendo anche effetti sonori e risate e può creare una risposta attraverso la voce in tempo reale. Il tempo di risposta è stimato in 320 millisecondi, del tutto paragonabile a quello umano, contro i vari secondi dei modelli precedenti ed è impossibile non pensare subito al film Her. "Dato che GPT-4o è il nostro primo modello che combina tutte queste modalità, stiamo ancora solo esplorando la superficie di ciò che il modello può fare e dei suoi limiti", hanno affermato i dirigenti di OpenAI durante la presentazione. Inoltre, è molto prestante anche nelle traduzioni, reggendo 50 lingue per coprire il 97% della popolazione globale. GPT-4o sarà disponibile anche come servizio tramite api, ma è significativo segnalare che dopo un primo lancio solo per utenti a pagamento, sarà accessibile anche per quelli free, che potranno sfruttare la navigazione sul web, l'analisi dei dati, accedere al GPT Store e alle funzioni di memoria, prima esclusive degli abbonati.

OpenAi ha presentato anche un'app desktop che per il momento funziona solo con Mac e permette di aprire una finestra e sfruttare ChatGPT per diverse funzioni come per esempio chiedere che cosa sia visualizzato sul display. Il chatbot può essere richiamato con la scorciatoia Option + barra spaziatrice e può riconoscere elementi, scritte e immagini. Tutti potranno scaricarla gratuitamente, ma per il momento sarà prerogativa degli utenti abbonati al servizio, che lo potranno utilizzare in anteprima.

Per il momento non è ancora tempo, dunque, per un motore di ricerca basato su ChatGPT e in grado di competere con Google. Lo strumento però sembra in rampa di lancio per uscire prima o dopo, per utilizzare l'AI per trovare, analizzare e visualizzare materiali di terze parti e rispondere così in modo più accurato alle richieste degli utenti. E domani sarà il turno di Google I/O. Il gigante delle ricerche online sfrutterà la sua conferenza annuale per presentare nuovi prodotti e soluzioni basate sull'intelligenza artificiale.