Le nostre vite saranno presto piene di agenti AI conversazionali progettati per aiutarci in ogni momento, anticipando i nostri desideri e bisogni in modo da poterci fornire informazioni personalizzate ed eseguire compiti utili per nostro conto. Lo faranno utilizzando un ampio archivio di dati personali sui nostri interessi e hobby individuali, background e aspirazioni, tratti della personalità e opinioni politiche, il tutto con l'obiettivo di rendere le nostre vite "più comode".
Questi agenti saranno estremamente abili. Open AI ha rilasciato GPT-4o, il suo chatbot di nuova generazione in grado di leggere le emozioni umane. Può farlo non solo leggendo il sentimento nel testo che scrivi, ma anche valutando le inflessioni della tua voce (se gli parli tramite un microfono) e utilizzando i tuoi segnali facciali (se interagisci tramite video).
Questo è il futuro dell'informatica e sta arrivando rapidamente.
Google ha annunciato Project Astra (Advanced Seeing and Talking Responsive Agent). L'obiettivo è implementare un'IA assistente in grado di interagire conversazionalmente con te, comprendendo al contempo ciò che vede e sente nell'ambiente circostante. Ciò consentirà di fornire guida e assistenza interattiva in tempo reale.
Sam Altman di Open AI ha detto al MIT Technology Review che l'applicazione killer per l'IA sono gli agenti di assistenza. Infatti, ha previsto che tutti vorranno un agente personalizzato che agisca come "un collega super competente che sa assolutamente tutto della mia vita, ogni e-mail, ogni conversazione che ho mai avuto", tutto catturato in modo che possa intraprendere azioni utili per tuo conto.
Cosa potrebbe mai andare storto?
C'è un rischio significativo che gli agenti di IA possano essere utilizzati in modo improprio in modi che compromettono l'agenzia umana. Infatti, credo che la manipolazione mirata sia la minaccia più pericolosa posta dall'IA nel prossimo futuro, soprattutto quando questi agenti saranno incorporati nei dispositivi mobili. Dopo tutto, i dispositivi mobili sono la porta di accesso alle nostre vite digitali, dalle notizie e opinioni che consumiamo a ogni e-mail, telefonata e messaggio di testo che riceviamo. Questi agenti monitoreranno il nostro flusso di informazioni, apprendendo dettagli intimi sulle nostre vite, filtrando anche il contenuto che raggiunge i nostri occhi.
Qualsiasi sistema che monitora le nostre vite e media le informazioni che riceviamo è un veicolo per la manipolazione interattiva. Per rendere tutto questo ancora più pericoloso, questi agenti AI useranno le telecamere e i microfoni sui nostri dispositivi mobili per vedere ciò che vediamo e sentire ciò che sentiamo in tempo reale. Questa capacità (abilitata dai modelli linguistici multimodali di grandi dimensioni) renderà questi agenti estremamente utili, in grado di reagire alle immagini e ai suoni nel tuo ambiente senza che tu debba chiedere loro indicazioni. Questa capacità potrebbe anche essere utilizzata per innescare un'influenza mirata che corrisponda all'attività o alla situazione precisa in cui sei impegnato.
Per molte persone, questo livello di tracciamento e intervento sembra inquietante e tuttavia, prevedo che abbracceranno la tecnologia. Dopotutto, questi agenti saranno progettati per migliorare le nostre vite, sussurrandoci nelle orecchie mentre svolgiamo le nostre giornate, assicurandoci di non dimenticare di raccogliere il bucato quando camminiamo per strada, insegnandoci mentre impariamo nuove competenze, persino allenandoci nelle situazioni sociali per farci sembrare più intelligenti, più divertenti o più sicuri di noi.
Questa diventerà una corsa agli armamenti tra le aziende tecnologiche per aumentare le nostre capacità mentali nei modi più potenti possibili. E coloro che scelgono di non usare queste funzionalità si sentiranno rapidamente svantaggiati. Alla fine, non sembrerà nemmeno una scelta. Ecco perché prevedo regolarmente che l'adozione sarà estremamente rapida, diventando onnipresente entro il prossimo decennio.
Come affrontiamo questo rischio?
La necessità è chiara: i regolatori devono agire rapidamente, assicurandosi che gli usi positivi degli agenti di intelligenza artificiale non siano ostacolati, proteggendo al contempo il pubblico dagli abusi. Negli ultimi anni, e finora i regolatori non hanno messo in atto alcuna protezione.
I regolatori di tutto il mondo sono ancora concentrati sui rischi "vecchia scuola" dell'intelligenza artificiale che implicano la loro capacità di generare disinformazione tradizionale su larga scala. Questi sono pericoli reali, ma il rischio molto più grande è la manipolazione interattiva mirata.
Per affrontare questo problema, il primo grande passo sarebbe un divieto assoluto (o limiti molto rigidi) sulla pubblicità conversazionale interattiva. La pubblicità interattiva è la "droga di accesso" alla propaganda conversazionale e alla disinformazione. E se non vietiamo questa tattica, diventerà rapidamente una corsa agli armamenti, con le grandi aziende tecnologiche in competizione tra loro per distribuire gli annunci conversazionali più "efficienti" ed "efficaci" che spingono gli utenti a fare acquisti. E le stesse tecnologie che ottimizzano per guidare prodotti e servizi saranno utilizzate per guidare la disinformazione e la propaganda, ottimizzando la capacità di farti credere cose che non sono nel tuo interesse.
Il momento per i decisori politici di affrontare questo problema è adesso.
Nessun commento:
Posta un commento