Ricordate la demo vocale per GPT-4o di OpenAI di un paio di mesi fa che ha scosso il mondo con la sua somiglianza con un essere umano? Sapete, quella che potrebbe farvi dimenticare per un po’ di stare parlando con un’IA e ha persino ricordato a molte persone il personaggio AI di Scarlett Johansson nel film Her (e ha anche affrontato critiche per lo stesso).
OpenAI sta finalmente iniziando a distribuirlo in Alpha a un piccolo numero di utenti di ChatGPT Plus, come ha condiviso l’azienda su X. Mentre inizialmente l’azienda aveva in programma di iniziare il lancio a giugno, è stato ritardato per motivi di sicurezza e per garantire che potesse “raggiungere la barra [di OpenAI] per il lancio”. Pertanto, l’azienda era impegnata a migliorare il modello con un team di red teamer esterni in modo che rilevasse e rifiutasse determinati contenuti.
Stiamo iniziando a distribuire la modalità vocale avanzata a un piccolo gruppo di utenti di ChatGPT Plus. La modalità vocale avanzata offre conversazioni più naturali e in tempo reale, ti consente di interrompere in qualsiasi momento e rileva e risponde alle tue emozioni. pic.twitter.com/64O94EhhXK
– OpenAI (@OpenAI) 30 luglio 2024
Ora, alcuni utenti paganti stanno iniziando ad avere accesso al modello nella loro app ChatGPT, ma al momento l’accesso alla versione alpha rimarrà limitato. L’azienda afferma che prevede di estendere gradualmente l’accesso a più utenti e di portarlo a tutti gli utenti paganti più avanti in autunno.
Non sembra esserci alcun modo per richiedere l’accesso alla Modalità Voce Avanzata. Se sei nell’elenco del piccolo numero di utenti che avranno accesso all’alfa, riceverai un’e-mail con le istruzioni e una notifica nella tua app ChatGPT per provare la Modalità Voce.
La modalità Advanced Voice Mode sarà in grado di parlare solo con le 4 voci preimpostate: Juniper, Amber, Cove e Breeze. In particolare, OpenAI ha rimosso Sky, quella che suonava come Scarlett Johansson, poco dopo che la demo è stata rilasciata all’evento di primavera e l’attrice ha inviato lettere all’azienda chiedendo come fosse stata realizzata la voce (a cui OpenAI apparentemente non ha mai risposto). Sky non fa ancora parte del roster, a quanto pare.
ChatGPT-4o non sarà inoltre in grado di fornire output in altre voci oltre a quelle presenti nel preset per proteggere la privacy dell’utente. Sono inoltre presenti delle protezioni per bloccare le richieste di contenuti violenti o protetti da copyright.
Se hai accesso alla modalità vocale avanzata nella tua app ChatGPT, vai e provala. Sebbene non sarà in grado di fare tutto ciò che è mostrato nelle demo finché non acquisirà anche le sue capacità visive, sembra comunque piuttosto impressionante, secondo alcuni video condivisi dagli utenti che hanno accesso.
Lascia un commento