ChatGPT-4o è incredibilmente bello, riderà e canterà con te “in una video chat”

ChatGPT-4o è incredibilmente bello, riderà e canterà con te “in una video chat”

Se stavi aspettando con impazienza l’ultimo aggiornamento primaverile di OpenAI per ChatGPT e speravi che la società rilasciasse GPT-5, rimarrai deluso da questo punto di vista. Ma ciò che OpenAI ha rilasciato invece sarebbe più che compensato.

L’azienda ha recentemente presentato il suo nuovo modello di punta – GPT-4o – ed è un capolavoro di innovazione umana. La “o” in GPT-4o sta per “omni” ed è un chiaro cenno alle nuove funzionalità onnipresenti di ChatGPT. Sebbene non ci siano molti miglioramenti nella parte di intelligenza e ragionamento rispetto al modello GPT-4, il nuovo modello presenta drastici miglioramenti in termini di velocità e multimodalità.

Cosa significa? GPT-4o ha funzionalità migliorate per testo, voce e visione. Può comprendere e discutere meglio le immagini. Ma la parte più interessante dell’aggiornamento è la sua capacità di conversare con te in tempo reale tramite audio e video, introducendoci nel futuro dell’interazione uomo-macchina. La maggior parte di noi ha solo immaginato questa interazione fantascientifica con un’intelligenza artificiale in fondo alla corsia. Ma è qui ed è elettrizzante.

Mira Murati, CTO di OpenAI, insieme a due responsabili della ricerca, hanno presentato le nuove funzionalità di GPT-40.

Il modello vocale ha una personalità e una tonalità incredibili, capaci di farti dimenticare (per un po’) che stai interagendo con un’IA. È spaventosamente eccitante. Le risposte sono molto più naturali e addirittura ride e finge di arrossire come un essere umano.

La demo ha anche evidenziato la gamma di emozioni che ChatGPT può mostrare quando richiesto esplicitamente: mentre racconta una storia, ChatGPT ha assorbito la sua voce con più emozioni e drammaticità, è passato a un suono robotico e ha persino cantato come se fosse in un musical, e lo ha fatto. tutto senza soluzione di continuità.

Molti utenti affermano che la voce ricorda loro l’intelligenza artificiale di Scarlett Johansson nel film “Her”, ma in particolare è la stessa voce che ChatGPT aveva in passato. Tutta la differenza deriva dai cambiamenti di tonalità e da alcune risate ben piazzate.

Quando lo abbini alle sue capacità di vedere e rispondere al contenuto sullo schermo, è davvero strabiliante. Con le sue nuove capacità di visione, ChatGPT non solo poteva comprendere cose come le equazioni lineari, ma ha fatto un ottimo lavoro interpretando l’ambiente circostante e le emozioni sul volto di una persona mostrate utilizzando la fotocamera. Ora puoi anche giocare a sasso-carta-forbice e chiedere a ChatGPT di essere l’arbitro o fare un ulteriore passo avanti nella preparazione dell’intervista con ChatGPT chiedendogli di criticare il tuo outfit e non sorvolerà le scelte sbagliate che farai.

Nel complesso, l’effetto è notevole e ti fa quasi credere di interagire con una persona reale durante una videochiamata (se l’altra persona tiene sempre la fotocamera spenta, ovviamente).

https://www.youtube.com/watch?v=DQacCB9tDaw

Anche il modello vocale è complessivamente migliore di quello attualmente disponibile. Il dialogo scorre più come una conversazione naturale, dove è possibile interromperlo a metà, è possibile comprendere e differenziare più voci e rumori di sottofondo e il tono della voce.

A livello tecnico, è perché GPT-4o può fare in modo nativo tutto ciò che fino ad ora richiedeva tre modelli diversi: trascrizione, intelligenza e sintesi vocale. Questi miglioramenti offrono all’utente un’esperienza più coinvolgente e collaborativa rispetto alle latenze dei modelli precedenti.

Mentre l’accesso a GPT-4o sta già iniziando a essere distribuito agli utenti gratuiti e Plus nell’app Web, la nuova modalità vocale con GPT-4o verrà lanciata in versione alpha solo per gli utenti ChatGPT Plus nelle prossime settimane. Viene inoltre rilasciata una nuova app macOS ChatGPT, con accesso distribuito in modo iterativo, a partire dagli utenti ChatGPT Plus.

Anche se la demo è stata piuttosto impressionante, dovremo aspettare per vedere se l’applicazione nel mondo reale sarà altrettanto fluida quando il modello verrà finalmente rilasciato.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *