Passa ai contenuti principali

AI fornisce risultati, ma non riflette

 
“Il pensiero critico è l’arte di esprimere giudizi chiari e ragionati basati sull’interpretazione, comprensione, applicazione e sintesi delle prove raccolte dall’osservazione, dalla lettura e dalla sperimentazione”. (Burns, T. e Sinfield, S. 2016)

Essere critici significa analizzare prove provenienti da diverse fonti e trarre conclusioni ragionate. Quando si tratta di interpretare le risposte di uno strumento di intelligenza artificiale, dovremmo essere in grado di utilizzare le nostre capacità di pensiero critico per valutare il risultato e decidere se siamo o meno d’accordo con esso.

L’obesità legata all’intelligenza artificiale potrebbe indurre le persone a dare priorità alla velocità e all’efficienza rispetto al pensiero critico, prendendo decisioni senza ragionare sui risultati. Come si chiede Bornet nel suo libro: ci stiamo accontentando di soluzioni “abbastanza buone” invece di puntare all’eccellenza?

Nel mondo dell’intelligenza artificiale, gli LLM sono progettati per imitare il più fedelmente possibile il comportamento umano, anche in un contesto limitato. Ad esempio, possiamo chiedere a ChatGPT di riassumere un documento di ricerca. ChatGTP procederà a riassumerlo senza considerare il livello di conoscenza dell'utente e lo scopo del riepilogo.

Immagina che ti venga chiesto di riassumere un lungo libro, ma puoi concentrarti solo su poche pagine alla volta. Questo è simile al modo in cui i modelli linguistici elaborano le informazioni. Hanno un limite alla quantità di contesto che possono considerare prima di fornire un output. Questo limite è chiamato dimensione della finestra di contesto.

La finestra di contesto è il numero di token (unità di testo come parole o caratteri) su entrambi i lati di una parola o carattere specifico, il token a cui ci rivolgiamo; è ciò che delinea i limiti entro i quali l’intelligenza artificiale ha utilità. Esempio di finestra di contesto, che illustra come i dati più vecchi vengono dimenticati e le informazioni più recenti vengono ricordate nell'interazione.

Una finestra di contesto di buone dimensioni consente agli LLM di fare previsioni più informate e generare testo di qualità superiore.

La sua dimensione è influenzata da diversi fattori:

Progettazione e obiettivi del modello: i modelli destinati ad analizzare documenti, creare contenuti o rispondere a domande spesso richiedono una finestra di contesto più ampia per elaborare e ricordare le informazioni il più a lungo possibile.

 Maggiori risorse computazionali: finestre di contesto più grandi richiedono più memoria ed elaborazione.

 Dati di addestramento: i dati di addestramento utilizzati possono influenzare in modo simile la finestra di contesto. I modelli addestrati su set di dati diversi e di grandi dimensioni richiederanno probabilmente finestre di contesto più ampie.

 Equilibrio delle prestazioni: sebbene una finestra di contesto più ampia possa migliorare la comprensione del modello e la qualità dell'output, richiede anche una maggiore potenza di calcolo e può rallentare la velocità di elaborazione. Trovare l’equilibrio tra questi due è vitale.

Concludendo, quando si scegli di attivare gli strumenti di intelligenza artificiale sul lavoro o nella vita personale, occorrerebbe fermarsi e riflettere, prima di approvare le loro risposte.

L’intelligenza artificiale non riesce ancora a comprendere le sottigliezze e le sfumature del linguaggio e del contesto umani.

La “conoscenza” contenuta negli strumenti di intelligenza artificiale generativa raramente riflette i dati dopo una certa data, quindi non sanno molto sugli eventi o sulle fonti recenti.

Gli strumenti di intelligenza artificiale rispondono alle richieste che creiamo. Per fornire buoni suggerimenti di solito non è necessaria solo la comprensione di come funziona lo strumento e dei contenuti che dobbiamo trovare, ma anche un certo livello di pensiero critico.

L'intelligenza artificiale genera soluzioni basate sul riconoscimento di modelli e su una finestra di contesto predefinita.

I valori che governano le nostre decisioni e la nostra bussola morale sono assenti in un sistema di intelligenza artificiale, portando a risultati spesso piuttosto banali.

 Sebbene l’intelligenza artificiale possa essere riqualificata su nuovi dati, manca di un ragionamento di tipo umano (aggiornamento delle strategie alla luce di nuove informazioni o circostanze mutevoli).

Di solito, gli strumenti di intelligenza artificiale non riportano mai le loro fonti di dati, né dichiarano mai di essere addestrati su dati specifici. Ciò significa che non abbiamo idea di chi abbia creato le informazioni originali utilizzate dall’AI e non possiamo sapere se avesse le competenze e le esperienze necessarie.

L’intelligenza artificiale di per sé non è né buona né cattiva. Tuttavia, se eseguita correttamente, essa può migliorare la nostra produttività e renderci più preziosi sul lavoro e nella nostra vita.


Commenti

Post popolari in questo blog

Siti interessanti da esplorare

  Ecco alcuni siti web utili e interessanti da provare. Iniziando con un sito web che offre informazioni sui cambiamenti nel mondo e concludendo con un sito web per assicurarti che il tuo dispositivo e i tuoi file siano sicuri. Our World In Data — Our World in Data ( ourworldindata.org ) è un sito web molto affascinante per coloro che sono interessati a conoscere i cambiamenti che avvengono intorno a noi in una forma user-friendly di grafici e diagrammi colorati. Ci sono diversi argomenti come Popolazione, Salute, Ambiente, Innovazione e molto altro. Questo ci aiuta a capire come il mondo sta cambiando nel tempo e le implicazioni che ne derivano. Non ho la TV - I Have No TV ( ihavenotv.com ) è un sito web di streaming diverso da quelli che vediamo adesso, pieno di paywall e contenuti distraenti. Non ha niente a che vedere con il Netflix o il Prime Video del mondo. Questo mira a fornire contenuti utili al suo pubblico senza alcun costo o abbonamento. Il database ospita oltr...

L'altra faccia della sostenibilità ambientale di AI

  Non è un segreto che l'AI abbia un problema di energia e, a sua volta, un problema di emissioni. Addestrare, mantenere ed eseguire enormi modelli di AI come ChatGPT, Grok o Stable Diffusion consuma la stessa quantità di energia di intere città. Ma The Guardian ha recentemente scoperto l'enorme portata delle emissioni distruttrici del pianeta che queste AI stanno producendo. La loro indagine ha rivelato che i data center interni (una parte cruciale dell'infrastruttura di AI) dei leader dell'AI Google, Microsoft, Meta e Apple producono 7,62 volte più emissioni di quelle ufficialmente dichiarate da queste aziende! Come sono riusciti a nasconderlo? Beh, lasciatemi spiegare. Come ho detto, l'AI consuma molta energia. L'AI avanzata moderna richiede terabyte su terabyte di dati organizzati per "addestrare" il modello di AI. Le aziende di AI archiviano questi dati e conducono l'addestramento dell'AI nei data center. Questi sono essenzialmente magaz...

Paura irrazionale del Nucleare

L'energia nucleare sta vivendo una rinascita in tutto il mondo: nuovi reattori sono in costruzione o in fase di pianificazione avanzata in oltre 20 paesi, tra cui quelli chiave come Cina, Giappone, India, Regno Unito, Francia, Russia, Stati Uniti... Alla conferenza sui cambiamenti climatici COP28 delle Nazioni Unite, molti di questi paesi hanno firmato per triplicare la capacità energetica nucleare globale entro il 2050. Perché le persone sostengono l'energia nucleare nella maggior parte dei paesi? Il nucleare è il miglior tipo di energia in tutti i fattori che contano: sicurezza, ambiente, sostenibilità, affidabilità, politica ed economia. Il nucleare sembra pericoloso e rischioso perché gli incidenti sembrano monumentali e il pericolo è invisibile. Risveglia una paura primordiale negli esseri umani, come gli incidenti aerei. Ma quando si misura la sicurezza effettiva, si scopre che l'energia nucleare è tra le fonti di elettricità più sicure. Il modo migliore per misu...