Le nostre vite saranno presto
piene di agenti AI conversazionali progettati per aiutarci in ogni momento,
anticipando i nostri desideri e bisogni in modo da poterci fornire informazioni
personalizzate ed eseguire compiti utili per nostro conto. Lo faranno
utilizzando un ampio archivio di dati personali sui nostri interessi e hobby
individuali, background e aspirazioni, tratti della personalità e opinioni
politiche, il tutto con l'obiettivo di rendere le nostre vite "più
comode".
Questi agenti saranno
estremamente abili. Open AI ha rilasciato GPT-4o, il suo chatbot di nuova
generazione in grado di leggere le emozioni umane. Può farlo non solo leggendo
il sentimento nel testo che scrivi, ma anche valutando le inflessioni della tua
voce (se gli parli tramite un microfono) e utilizzando i tuoi segnali facciali
(se interagisci tramite video).
Questo è il futuro
dell'informatica e sta arrivando rapidamente.
Google ha annunciato Project Astra (Advanced
Seeing and Talking Responsive Agent). L'obiettivo è implementare un'IA
assistente in grado di interagire conversazionalmente con te, comprendendo al
contempo ciò che vede e sente nell'ambiente circostante. Ciò consentirà di
fornire guida e assistenza interattiva in tempo reale.
Sam Altman di Open AI ha detto
al MIT Technology Review che l'applicazione killer per l'IA sono gli agenti di
assistenza. Infatti, ha previsto che tutti vorranno un agente personalizzato
che agisca come "un collega super competente che sa assolutamente tutto
della mia vita, ogni e-mail, ogni conversazione che ho mai avuto", tutto
catturato in modo che possa intraprendere azioni utili per tuo conto.
Cosa potrebbe mai andare storto?
C'è un rischio significativo
che gli agenti di IA possano essere utilizzati in modo improprio in modi che
compromettono l'agenzia umana. Infatti, credo che la manipolazione mirata sia
la minaccia più pericolosa posta dall'IA nel prossimo futuro, soprattutto
quando questi agenti saranno incorporati nei dispositivi mobili. Dopo tutto, i
dispositivi mobili sono la porta di accesso alle nostre vite digitali, dalle
notizie e opinioni che consumiamo a ogni e-mail, telefonata e messaggio di
testo che riceviamo. Questi agenti monitoreranno il nostro flusso di
informazioni, apprendendo dettagli intimi sulle nostre vite, filtrando anche il
contenuto che raggiunge i nostri occhi.
Qualsiasi sistema che monitora
le nostre vite e media le informazioni che riceviamo è un veicolo per la
manipolazione interattiva. Per rendere tutto questo ancora più pericoloso,
questi agenti AI useranno le telecamere e i microfoni sui nostri dispositivi
mobili per vedere ciò che vediamo e sentire ciò che sentiamo in tempo reale.
Questa capacità (abilitata dai modelli linguistici multimodali di grandi
dimensioni) renderà questi agenti estremamente utili, in grado di reagire alle
immagini e ai suoni nel tuo ambiente senza che tu debba chiedere loro
indicazioni. Questa capacità potrebbe anche essere utilizzata per innescare
un'influenza mirata che corrisponda all'attività o alla situazione precisa in
cui sei impegnato.
Per molte persone, questo
livello di tracciamento e intervento sembra inquietante e tuttavia, prevedo che
abbracceranno la tecnologia. Dopotutto, questi agenti saranno progettati per
migliorare le nostre vite, sussurrandoci nelle orecchie mentre svolgiamo le
nostre giornate, assicurandoci di non dimenticare di raccogliere il bucato
quando camminiamo per strada, insegnandoci mentre impariamo nuove competenze,
persino allenandoci nelle situazioni sociali per farci sembrare più
intelligenti, più divertenti o più sicuri di noi.
Questa diventerà una corsa
agli armamenti tra le aziende tecnologiche per aumentare le nostre capacità
mentali nei modi più potenti possibili. E coloro che scelgono di non usare
queste funzionalità si sentiranno rapidamente svantaggiati. Alla fine, non
sembrerà nemmeno una scelta. Ecco perché prevedo regolarmente che l'adozione
sarà estremamente rapida, diventando onnipresente entro il prossimo decennio.
Come affrontiamo questo
rischio?
La necessità è chiara: i
regolatori devono agire rapidamente, assicurandosi che gli usi positivi degli
agenti di intelligenza artificiale non siano ostacolati, proteggendo al
contempo il pubblico dagli abusi. Negli ultimi anni, e finora i regolatori non
hanno messo in atto alcuna protezione.
I regolatori di tutto il mondo
sono ancora concentrati sui rischi "vecchia scuola" dell'intelligenza
artificiale che implicano la loro capacità di generare disinformazione
tradizionale su larga scala. Questi sono pericoli reali, ma il rischio molto
più grande è la manipolazione interattiva mirata.
Per affrontare questo
problema, il primo grande passo sarebbe un divieto assoluto (o limiti molto
rigidi) sulla pubblicità conversazionale interattiva. La pubblicità interattiva
è la "droga di accesso" alla propaganda conversazionale e alla
disinformazione. E se non vietiamo questa tattica, diventerà rapidamente una
corsa agli armamenti, con le grandi aziende tecnologiche in competizione tra
loro per distribuire gli annunci conversazionali più "efficienti" ed
"efficaci" che spingono gli utenti a fare acquisti. E le stesse
tecnologie che ottimizzano per guidare prodotti e servizi saranno utilizzate
per guidare la disinformazione e la propaganda, ottimizzando la capacità di
farti credere cose che non sono nel tuo interesse.
Il momento per i decisori
politici di affrontare questo problema è adesso.