giovedì 14 novembre 2024

AI in soccorso ai creduloni


 

Uno studio pubblicato sulla rivista Science, "Ridurre in modo duraturo le credenze cospirative attraverso dialoghi con l'AI", condotto su 2.190 americani che credevano apertamente in una serie di assurde teorie cospirative, mostra che l'interazione con un chatbot AI sull'argomento ha ridotto significativamente la forza di tali convinzioni e che l'effetto è durato almeno due mesi.
Il segreto del successo: il chatbot, con la sua capacità di accedere a enormi quantità di informazioni su un'enorme varietà di argomenti, è stato in grado di adattare con precisione i suoi controargomenti a ciascun individuo.
Oltre il 50% degli americani afferma di credere in almeno una delle tante teorie cospirative là fuori, stravaganti spiegazioni per un evento o una situazione che sostengono l'esistenza di un complotto da parte di gruppi potenti e sinistri, spesso motivati ​​politicamente. In generale, questi individui tendono a trasformare tali teorie in una parte fondamentale della loro visione del mondo, le fondamenta dell'edificio che supporta le loro convinzioni e a reagire con rabbia quando tali teorie vengono minacciate o messe in discussione.
Questo è l'effetto backfire, o perseveranza della convinzione, che ci porta a continuare a credere in qualcosa nonostante la disponibilità di nuove informazioni che la contraddicono fermamente. Uno dei migliori che abbia mai visto per spiegare questo tipo di domanda è questo lungo fumetto di The Oatmeal, "Non crederai a quello che sto per dirti", che uso da parecchi anni all'inizio di tutti i miei corsi.
Le teorie del complotto variano molto da persona a persona, coprendo un'ampia gamma di campi, e i tentativi di smentirle sono solitamente inefficaci, perché le vittime di quelle teorie spesso hanno versioni diverse nella loro testa. Al contrario, un chatbot AI, forse perché non è personale, può adattare gli sforzi di smentita a tutte quelle diverse versioni di una cospirazione. Pertanto, in teoria, un chatbot potrebbe essere più efficace nel dissuadere qualcuno e, inoltre, farlo in modo sostenibile nel tempo.
Per testare la loro ipotesi, i ricercatori hanno creato un chatbot specializzato in teorie del complotto, DebunkBot, e hanno condotto una serie di esperimenti con i partecipanti che credevano in una o più teorie del complotto. I partecipanti hanno avuto diverse conversazioni individuali con un LLM (sviluppato con GT-4 Turbo) in cui hanno condiviso la loro teoria del complotto preferita e le prove che ritenevano supportassero tale convinzione. LLM ha risposto offrendo controargomentazioni basate su fatti e prove, adattate a ogni singolo partecipante. Le risposte dell'LLM sono state sottoposte a verifica professionale, che ha mostrato che il 99,2% delle affermazioni fatte erano vere, mentre solo lo 0,8% è stato valutato come fuorviante e nessuna di esse come falsa.
I partecipanti hanno risposto a una serie di domande prima e dopo i loro dialoghi con il chatbot, che sono durati in media circa otto minuti. Questi dialoghi mirati hanno portato a una diminuzione del 20% delle convinzioni errate dei partecipanti, una riduzione che, peraltro, è persistita anche due mesi dopo, quando i partecipanti sono stati rivalutati.
La diffusione di teorie del complotto sostenute da fette significative della popolazione è uno degli aspetti più preoccupanti dell'iperabbondanza di informazioni e disinformazione in generale. Ora possiamo iniziare a capire che finché avremo l'AI, potremo continuare a sperare che le teorie del complotto che non molto tempo fa erano semplicemente considerate come prova di ignoranza o stupidità, possano almeno essere confinate a segmenti residui della popolazione, semplicemente a causa dell'ignoranza, della mancanza di cultura o della malattia mentale. Sembra che abbiamo ragione di essere ottimisti: sembra che l'intelligenza artificiale possa superare la stupidità naturale.

Nessun commento:

Posta un commento

Post più letti in assoluto