venerdì 15 novembre 2024

“Intelligenza visiva” sugli iPhone


Come un orologio, Apple ha annunciato i suoi ultimi aggiornamenti di prodotto lunedì tramite una presentazione preregistrata chiamata "Glowtime", un cenno all'anello luminoso che circonda il bordo dello schermo quando viene evocata Apple Intelligence. Infatti, nonostante si tratti di un evento hardware, la vera star dello spettacolo è senza dubbio il set di funzionalità basate sull'intelligenza artificiale che Apple è pronta a scatenare con i nuovi modelli di iPhone.

Diamo un'occhiata da vicino a tre aspetti particolari degli ultimi annunci di Apple che riteniamo possano comportare ulteriori implicazioni e approfondimenti strategici per i brand marketer.

Annunciata per la prima volta durante la conferenza mondiale per sviluppatori (WWDC) di giugno, Apple Intelligence mira a sfruttare il suo modello di linguaggio di grandi dimensioni (LLM) proprietario per gestire principalmente attività pratiche sul dispositivo. Trae vantaggio dall'accesso alla quantità di dati personali che gli utenti iPhone archiviano nelle app iOS native come Calendario o Mail, consentendogli di fornire risultati altamente personalizzati e, alla fine, svolgere attività su più app. Durante il discorso principale, Apple ha evidenziato quattro gruppi principali di casi d'uso per Apple Intelligence: autoespressione (ad esempio tramite lo strumento di generazione delle immagini), rivivere i ricordi (chiedere a Siri di trovare una particolare foto delle vacanze), dare priorità all'attenzione tramite riepiloghi delle notifiche generati dall'intelligenza artificiale e portare a termine le cose tramite la Siri 2.0 potenziata.

Oltre a ribadire le funzionalità di intelligenza artificiale introdotte alla WWDC, Apple ha presentato una nuovissima funzionalità di "intelligenza visiva" per i nuovi modelli di iPhone 16. Funzionando essenzialmente come strumento di ricerca visiva nativo del sistema Apple, questa nuova funzionalità consentirà agli utenti iPhone di cercare semplicemente informazioni direttamente dalla fotocamera. Grazie al nuovo pulsante "controllo fotocamera" aggiunto a tutti i modelli di iPhone 16, questa funzione di ricerca visiva è facilmente accessibile tramite un semplice clic e tenendo premuto il pulsante.

Apple ha mostrato tre scenari di casi d'uso nel video dimostrativo: puntare la fotocamera su un ristorante e ricevere una scheda informativa pop-up sul locale; scattare una foto di un poster di un concerto e salvare automaticamente l'evento sul calendario; o riconoscere la razza di un cane scattandone una foto. Tutte le attività di visione artificiale in quei casi d'uso sono eseguite dal modello di intelligenza artificiale di Apple, sul dispositivo o tramite il sistema di elaborazione cloud privato di Apple. Apple ha anche sottolineato che non avrebbe "mai archiviato alcuna immagine" scattata durante la ricerca visiva, in linea con le sue pratiche generali sulla privacy degli utenti.

Inoltre, Apple sta collaborando con altri servizi di intelligenza artificiale per ampliare i suoi casi d'uso. Ad esempio, gli utenti possono accedere a Google Lens tramite "intelligenza visiva" per cercare prodotti simili da acquistare o chiedere a ChatGPT di risolvere un problema matematico complesso scritto su un pezzo di carta. Questo approccio biforcuto è in linea con la strategia generale di Apple con Apple Intelligence, che si concentra sulla fornitura di attività personali e specializzate e sull'esternalizzazione di attività più complesse che richiedono l'accesso a una conoscenza mondiale più ampia a partner terzi.

Per i marchi, l'aggiunta di una funzione di ricerca visiva integrata al dispositivo mobile più popolare negli Stati Uniti inaugurerà senza dubbio una nuova era per la ricerca visiva come punto di contatto del marchio e potenziale canale di marketing. Le schede informative aziendali che "visual intelligence" richiama quando si cercano attività commerciali locali sembrano provenire da Apple Maps, che a sua volta ottiene principalmente informazioni sulle attività commerciali statunitensi da tre fonti: Yelp, TripAdvisor e Foursquare. Dato che Apple Intelligence cerca anche informazioni sui prodotti su Google, non sarebbe male assicurarsi che il prodotto sia correttamente indicizzato anche per Google Lens.

Nessun commento:

Posta un commento

Esprimi il tuo pensiero

Post più letti in assoluto