sabato 10 agosto 2024

Le idee di Platone viste da AI


 
Qualche giorno fa, mi sono imbattuto in una nuova teoria che unisce AI e filosofia: le AI stanno diventando tutte la stessa cosa? In altre parole, tutti i futuri modelli di AI saranno identici?

In effetti, i ricercatori hanno trovato prove evidenti che questo potrebbe già accadere, poiché tutti i modelli sembrano convergere verso una rappresentazione "platonica":

Se fosse vero, le ripercussioni economiche e filosofiche sarebbero enormi, poiché ciò potrebbe indicare che le AI, grazie ai modelli di base, stanno iniziando a scoprire, spiegare e, soprattutto, predire la realtà stessa.

Per capire perché i ricercatori pongono questa domanda, dobbiamo capire come i modelli interpretano il mondo. E questo può avvenire attraverso le rappresentazioni.

Per ogni singolo concetto del mondo che apprendono, i modelli di AI costruiscono una rappresentazione, un modo compresso di descriverlo che cattura gli attributi chiave.

In particolare, i modelli di AI trasformano ogni concetto in incorporamenti, una rappresentazione in forma vettoriale.

Ma perché i vettori? Bene, se tutto nel mondo diventa un vettore, otteniamo due cose:

Concetti in forma numerica: le macchine possono interpretare solo numeri. Pertanto, tutto deve essere interpretato in qualche modo sotto forma di numeri

Somiglianza: avendo tutto come vettore, possiamo misurare la distanza tra loro.

Pertanto, i modelli costruiscono uno spazio ad alta dimensione (molti numeri per vettore) di concetti del mondo che descrive la comprensione del mondo da parte del modello, uno spazio governato da un principio: la relazione, come la definisce OpenAI.

In questo mondo interiore, più i due concetti del mondo reale sono simili, più i loro vettori devono essere vicini in questo spazio.

Ad esempio, in questo spazio, "cane" e "gatto" sono più vicini nello spazio di "cane" e "finestra", ma anche di "cane" e "piccione", perché "cane" e "gatto" sono più correlati semanticamente.

Ma come costruiscono questo spazio?

Utilizzando l'esempio di "cane" e "gatto", vedendo miliardi di testi, il modello si rende conto che "cane" e "gatto" sono parole che vengono utilizzate in casi simili in tutto il linguaggio umano. Quindi, concludono che devono essere simili.

In modo Affascinante, gli spazi latenti (questo è il nome di questi spazi) funzionano in entrambi i modi: non solo ci aiutano a insegnare ai modelli di intelligenza artificiale come i concetti del mondo, ma possono anche aiutare a scoprire modelli del mondo che gli esseri umani non hanno ancora realizzato.

A quanto pare, l'intelligenza artificiale è migliore degli esseri umani nel trovare pattern matching, trovando pattern chiave in dati che inizialmente ci sembravano inconsapevoli o che eravamo troppo prevenuti per riconoscere (l'intelligenza artificiale può colmare il divario tra la cultura occidentale e le altre; ad esempio, le persone nei paesi non occidentali esprimono determinate emozioni in modo diverso).

Pertanto, se le AI sono davvero in grado di avere una visione "imparziale" della realtà; sono in grado di osservare la realtà così com'è? E la risposta, teorizzano i ricercatori, è sì.

L'allegoria della caverna

Le AI possono apprendere la vera natura della realtà che causa ogni osservazione o evento?

Se così fosse, potremmo alla fine far maturare la nostra formazione di AI così tanto che i nostri modelli di base si evolvano nello stesso modello, poiché esiste un solo vero modo di interpretare la realtà così com'è?

Per convalidare questa teoria, i ricercatori hanno affermato che le rappresentazioni di questi modelli dovrebbero convergere tutte in un'unica rappresentazione del mondo, un modo oggettivamente vero e universale di rappresentare la realtà.

Pensa alla costruzione della rappresentazione come a un atto di intelligenza. Più la mia rappresentazione del mondo è vicina alla realtà, più sto dimostrando di capirla.

Ma come possiamo verificare se ciò sta accadendo? Per farlo, i ricercatori hanno confrontato gli spazi latenti di diversi modelli popolari. Tuttavia, non è importante solo la distribuzione complessiva delle rappresentazioni concettuali, ma anche le loro distanze.

Vale a dire, la rappresentazione che un modello assegna al colore "rosso" dovrebbe essere simile non solo ad altri modelli nella stessa modalità (confrontando LLM), ma anche il modo in cui un modello linguistico e un modello di visione interpretano (codificano) il "rosso" dovrebbe essere simile.

In termini semplici, la distanza tra "rosso" e "blu" dovrebbe essere uguale tra i modelli se tutti interpretano il colore rosso come lo presenta la realtà. In questo modo, stiamo dimostrando che entrambi i modelli stanno convergendo nello stesso concetto di "rosso".

Questo è ciò che la teoria della rappresentazione platonica significa: che la realtà non dipende dagli occhi di chi guarda; è universale. Ma perché chiamarla rappresentazione platonica? Una visione parziale della realtà

In particolare, i ricercatori fanno riferimento all'Allegoria della caverna di Platone, dove i dati attuali che stiamo fornendo ai modelli sono le ombre, una vaga rappresentazione della realtà, e i nostri precedenti sistemi di intelligenza artificiale sono le persone che osservano le ombre, il che significa che hanno solo una visione parziale della vita.

Ma con la scala e l'essere costretti a svolgere più attività contemporaneamente, i modelli di base potrebbero trascendere i loro dati, emergendo infine dalla caverna per apprendere la vera natura della realtà.

Si può sostenere che i dati di addestramento sono l'"ombra" perché gli umani sono ancora ignari della vera natura della realtà fino ad oggi.

Ciò dimostrerebbe anche che i nostri attuali metodi di addestramento dell'intelligenza artificiale, l'apprendimento per imitazione sui dati umani, non potranno mai raggiungere l'AGI (vedi nota), per non parlare della superintelligenza, perché i limiti dell'umanità incatenano le nostre AI a vedere il mondo nel modo distorto in cui lo facciamo noi.

In questo scenario, non costruiremmo mai l'AGI finché non svilupperemo un metodo per le AI per osservare il mondo e imparare da esso, invece che attraverso il proxy dei dati umani.

Un esempio concreto: se un giorno le nostre AI potessero osservare la realtà così com'è, indipendentemente dalla modalità (modelli linguistici, modelli di immagine o modelli video), dovrebbero avere tutte una definizione identica della realtà.

 

Nota: Il termine AGI (Artificial General Intelligence) racchiude il significato di un sistema capace di apprendere, comprendere e funzionare in modo quasi indistinguibile da un’intelligenza umana. A differenza della “narrow AI”, non sarebbe limitata a compiti specifici, ma potrebbe trasferire conoscenze e competenze attraverso diversi domini, risolvendo problemi

Nessun commento:

Posta un commento

Post più letti in assoluto