Apple ha rilasciato l’ultima gamma dei suoi iPhone al momento di “It’s Glowtime”. I modelli iPhone 16 e 16 Pro sono commercializzati da Apple come realizzati da zero per Apple Intelligence. Se vi siete persi il promemoria su Apple Intelligence, che il gigante della tecnologia ha presentato all’inizio di quest’anno a giugno alla sua conferenza annuale WWDC, è la loro interpretazione dell’intelligenza artificiale.
Tuttavia, l’azienda ha opportunamente omesso una funzionalità durante la WWDC, e giustamente, poiché è legata alle modifiche hardware in arrivo nella gamma iPhone 16. Visual Intelligence sta arrivando su iPhone, ed è simile ad avere Google Lens in movimento su Android, ma il primo è alimentato dall’intelligenza artificiale. Assomiglia in qualche modo alle capacità di input multimodale (immagine/video) per Gemini Live di Google o ChatGPT-4o Advanced Mode di OpenAI (entrambi non ancora disponibili). Ma sembra che Visual Intelligence possa accettare solo immagini come input.
Si attiva tenendo premuto il nuovo pulsante di controllo della fotocamera sulla serie iPhone 16.
Puoi chiedere a Visual Intelligence qualsiasi cosa. Ad esempio, se punti la tua fotocamera su un ristorante, Visual Intelligence può rapidamente estrarre orari di apertura, valutazioni e opzioni per controllare il menu o effettuare una prenotazione.
Allo stesso modo, puoi puntare la tua fotocamera su un poster di un evento e aggiungerlo automaticamente al tuo Calendario. In particolare, Gemini di Google può aiutarti in modo simile sui dispositivi Android e può anche fare un passo avanti e informarti se hai impegni precedenti per quella data.
Tutto questo è alimentato da una combinazione di intelligenza on-device e servizi Apple che non memorizzano le tue immagini. Inoltre, Visual Intelligence può anche fungere da gateway per servizi di terze parti come Google e ChatGPT. L’interfaccia mostra due pulsanti: Cerca e Chiedi.
Con Search, puoi chiedere a Google qualsiasi cosa su ciò che vedi sullo schermo, come una bici che vedi e vuoi acquistare. Con Ask, puoi invocare ChatGPT e chiedere aiuto, ad esempio, per le tue note. Le informazioni vengono condivise con strumenti di terze parti solo quando scegli di usarli.
La funzionalità non sarà disponibile subito e arriverà più avanti quest’anno, senza ancora informazioni concrete sulla data di rilascio. Sembra anche che la funzionalità non arriverà sui vecchi iPhone che supporteranno Apple Intelligence, dato che Craig Federighi ha detto espressamente che arriverà su “Camera Control” più avanti quest’anno.
Lascia un commento