Essere critici significa analizzare prove provenienti da diverse fonti e trarre conclusioni ragionate. Quando si tratta di interpretare le risposte di uno strumento di intelligenza artificiale, dovremmo essere in grado di utilizzare le nostre capacità di pensiero critico per valutare il risultato e decidere se siamo o meno d’accordo con esso.
L’obesità legata all’intelligenza artificiale potrebbe indurre le persone a dare priorità alla velocità e all’efficienza rispetto al pensiero critico, prendendo decisioni senza ragionare sui risultati. Come si chiede Bornet nel suo libro: ci stiamo accontentando di soluzioni “abbastanza buone” invece di puntare all’eccellenza?
Nel mondo dell’intelligenza artificiale, gli LLM sono progettati per imitare il più fedelmente possibile il comportamento umano, anche in un contesto limitato. Ad esempio, possiamo chiedere a ChatGPT di riassumere un documento di ricerca. ChatGTP procederà a riassumerlo senza considerare il livello di conoscenza dell'utente e lo scopo del riepilogo.
Immagina che ti venga chiesto di riassumere un lungo libro, ma puoi concentrarti solo su poche pagine alla volta. Questo è simile al modo in cui i modelli linguistici elaborano le informazioni. Hanno un limite alla quantità di contesto che possono considerare prima di fornire un output. Questo limite è chiamato dimensione della finestra di contesto.
La finestra di contesto è il numero di token (unità di testo come parole o caratteri) su entrambi i lati di una parola o carattere specifico, il token a cui ci rivolgiamo; è ciò che delinea i limiti entro i quali l’intelligenza artificiale ha utilità. Esempio di finestra di contesto, che illustra come i dati più vecchi vengono dimenticati e le informazioni più recenti vengono ricordate nell'interazione.
Una finestra di contesto di buone dimensioni consente agli LLM di fare previsioni più informate e generare testo di qualità superiore.
La sua dimensione è influenzata da diversi fattori:
Progettazione e obiettivi del modello: i modelli destinati ad analizzare documenti, creare contenuti o rispondere a domande spesso richiedono una finestra di contesto più ampia per elaborare e ricordare le informazioni il più a lungo possibile.
Maggiori risorse computazionali: finestre di contesto più grandi richiedono più memoria ed elaborazione.
Dati di addestramento: i dati di addestramento utilizzati possono influenzare in modo simile la finestra di contesto. I modelli addestrati su set di dati diversi e di grandi dimensioni richiederanno probabilmente finestre di contesto più ampie.
Equilibrio delle prestazioni: sebbene una finestra di contesto più ampia possa migliorare la comprensione del modello e la qualità dell'output, richiede anche una maggiore potenza di calcolo e può rallentare la velocità di elaborazione. Trovare l’equilibrio tra questi due è vitale.
Concludendo, quando si scegli di attivare gli strumenti di intelligenza artificiale sul lavoro o nella vita personale, occorrerebbe fermarsi e riflettere, prima di approvare le loro risposte.
L’intelligenza artificiale non riesce ancora a comprendere le sottigliezze e le sfumature del linguaggio e del contesto umani.
La “conoscenza” contenuta negli strumenti di intelligenza artificiale generativa raramente riflette i dati dopo una certa data, quindi non sanno molto sugli eventi o sulle fonti recenti.
Gli strumenti di intelligenza artificiale rispondono alle richieste che creiamo. Per fornire buoni suggerimenti di solito non è necessaria solo la comprensione di come funziona lo strumento e dei contenuti che dobbiamo trovare, ma anche un certo livello di pensiero critico.
L'intelligenza artificiale genera soluzioni basate sul riconoscimento di modelli e su una finestra di contesto predefinita.
I valori che governano le nostre decisioni e la nostra bussola morale sono assenti in un sistema di intelligenza artificiale, portando a risultati spesso piuttosto banali.
Sebbene l’intelligenza artificiale possa essere riqualificata su nuovi dati, manca di un ragionamento di tipo umano (aggiornamento delle strategie alla luce di nuove informazioni o circostanze mutevoli).
Di solito, gli strumenti di intelligenza artificiale non riportano mai le loro fonti di dati, né dichiarano mai di essere addestrati su dati specifici. Ciò significa che non abbiamo idea di chi abbia creato le informazioni originali utilizzate dall’AI e non possiamo sapere se avesse le competenze e le esperienze necessarie.
L’intelligenza artificiale di per sé non è né buona né cattiva. Tuttavia, se eseguita correttamente, essa può migliorare la nostra produttività e renderci più preziosi sul lavoro e nella nostra vita.
Nessun commento:
Posta un commento
Esprimi il tuo pensiero