Passa ai contenuti principali

Le idee di Platone viste da AI


 
Qualche giorno fa, mi sono imbattuto in una nuova teoria che unisce AI e filosofia: le AI stanno diventando tutte la stessa cosa? In altre parole, tutti i futuri modelli di AI saranno identici?

In effetti, i ricercatori hanno trovato prove evidenti che questo potrebbe già accadere, poiché tutti i modelli sembrano convergere verso una rappresentazione "platonica":

Se fosse vero, le ripercussioni economiche e filosofiche sarebbero enormi, poiché ciò potrebbe indicare che le AI, grazie ai modelli di base, stanno iniziando a scoprire, spiegare e, soprattutto, predire la realtà stessa.

Per capire perché i ricercatori pongono questa domanda, dobbiamo capire come i modelli interpretano il mondo. E questo può avvenire attraverso le rappresentazioni.

Per ogni singolo concetto del mondo che apprendono, i modelli di AI costruiscono una rappresentazione, un modo compresso di descriverlo che cattura gli attributi chiave.

In particolare, i modelli di AI trasformano ogni concetto in incorporamenti, una rappresentazione in forma vettoriale.

Ma perché i vettori? Bene, se tutto nel mondo diventa un vettore, otteniamo due cose:

Concetti in forma numerica: le macchine possono interpretare solo numeri. Pertanto, tutto deve essere interpretato in qualche modo sotto forma di numeri

Somiglianza: avendo tutto come vettore, possiamo misurare la distanza tra loro.

Pertanto, i modelli costruiscono uno spazio ad alta dimensione (molti numeri per vettore) di concetti del mondo che descrive la comprensione del mondo da parte del modello, uno spazio governato da un principio: la relazione, come la definisce OpenAI.

In questo mondo interiore, più i due concetti del mondo reale sono simili, più i loro vettori devono essere vicini in questo spazio.

Ad esempio, in questo spazio, "cane" e "gatto" sono più vicini nello spazio di "cane" e "finestra", ma anche di "cane" e "piccione", perché "cane" e "gatto" sono più correlati semanticamente.

Ma come costruiscono questo spazio?

Utilizzando l'esempio di "cane" e "gatto", vedendo miliardi di testi, il modello si rende conto che "cane" e "gatto" sono parole che vengono utilizzate in casi simili in tutto il linguaggio umano. Quindi, concludono che devono essere simili.

In modo Affascinante, gli spazi latenti (questo è il nome di questi spazi) funzionano in entrambi i modi: non solo ci aiutano a insegnare ai modelli di intelligenza artificiale come i concetti del mondo, ma possono anche aiutare a scoprire modelli del mondo che gli esseri umani non hanno ancora realizzato.

A quanto pare, l'intelligenza artificiale è migliore degli esseri umani nel trovare pattern matching, trovando pattern chiave in dati che inizialmente ci sembravano inconsapevoli o che eravamo troppo prevenuti per riconoscere (l'intelligenza artificiale può colmare il divario tra la cultura occidentale e le altre; ad esempio, le persone nei paesi non occidentali esprimono determinate emozioni in modo diverso).

Pertanto, se le AI sono davvero in grado di avere una visione "imparziale" della realtà; sono in grado di osservare la realtà così com'è? E la risposta, teorizzano i ricercatori, è sì.

L'allegoria della caverna

Le AI possono apprendere la vera natura della realtà che causa ogni osservazione o evento?

Se così fosse, potremmo alla fine far maturare la nostra formazione di AI così tanto che i nostri modelli di base si evolvano nello stesso modello, poiché esiste un solo vero modo di interpretare la realtà così com'è?

Per convalidare questa teoria, i ricercatori hanno affermato che le rappresentazioni di questi modelli dovrebbero convergere tutte in un'unica rappresentazione del mondo, un modo oggettivamente vero e universale di rappresentare la realtà.

Pensa alla costruzione della rappresentazione come a un atto di intelligenza. Più la mia rappresentazione del mondo è vicina alla realtà, più sto dimostrando di capirla.

Ma come possiamo verificare se ciò sta accadendo? Per farlo, i ricercatori hanno confrontato gli spazi latenti di diversi modelli popolari. Tuttavia, non è importante solo la distribuzione complessiva delle rappresentazioni concettuali, ma anche le loro distanze.

Vale a dire, la rappresentazione che un modello assegna al colore "rosso" dovrebbe essere simile non solo ad altri modelli nella stessa modalità (confrontando LLM), ma anche il modo in cui un modello linguistico e un modello di visione interpretano (codificano) il "rosso" dovrebbe essere simile.

In termini semplici, la distanza tra "rosso" e "blu" dovrebbe essere uguale tra i modelli se tutti interpretano il colore rosso come lo presenta la realtà. In questo modo, stiamo dimostrando che entrambi i modelli stanno convergendo nello stesso concetto di "rosso".

Questo è ciò che la teoria della rappresentazione platonica significa: che la realtà non dipende dagli occhi di chi guarda; è universale. Ma perché chiamarla rappresentazione platonica? Una visione parziale della realtà

In particolare, i ricercatori fanno riferimento all'Allegoria della caverna di Platone, dove i dati attuali che stiamo fornendo ai modelli sono le ombre, una vaga rappresentazione della realtà, e i nostri precedenti sistemi di intelligenza artificiale sono le persone che osservano le ombre, il che significa che hanno solo una visione parziale della vita.

Ma con la scala e l'essere costretti a svolgere più attività contemporaneamente, i modelli di base potrebbero trascendere i loro dati, emergendo infine dalla caverna per apprendere la vera natura della realtà.

Si può sostenere che i dati di addestramento sono l'"ombra" perché gli umani sono ancora ignari della vera natura della realtà fino ad oggi.

Ciò dimostrerebbe anche che i nostri attuali metodi di addestramento dell'intelligenza artificiale, l'apprendimento per imitazione sui dati umani, non potranno mai raggiungere l'AGI (vedi nota), per non parlare della superintelligenza, perché i limiti dell'umanità incatenano le nostre AI a vedere il mondo nel modo distorto in cui lo facciamo noi.

In questo scenario, non costruiremmo mai l'AGI finché non svilupperemo un metodo per le AI per osservare il mondo e imparare da esso, invece che attraverso il proxy dei dati umani.

Un esempio concreto: se un giorno le nostre AI potessero osservare la realtà così com'è, indipendentemente dalla modalità (modelli linguistici, modelli di immagine o modelli video), dovrebbero avere tutte una definizione identica della realtà.

 

Nota: Il termine AGI (Artificial General Intelligence) racchiude il significato di un sistema capace di apprendere, comprendere e funzionare in modo quasi indistinguibile da un’intelligenza umana. A differenza della “narrow AI”, non sarebbe limitata a compiti specifici, ma potrebbe trasferire conoscenze e competenze attraverso diversi domini, risolvendo problemi

Commenti

Post popolari in questo blog

Nuovi stili di arte?

Opera di Silvia Senna L’arte, davvero, è una delle poche cose che restano agli esseri umani. Abbiamo bisogno che l'arte ci racconti storie, che ci salvi dal nostro destino condiviso, dalla nostra paura della morte e dalla paura gli uni degli altri. Abbiamo bisogno che gli artisti ci mostrino che non siamo sempre soli.  Non si può piangere sulle spalle di un robot, ma ci si può alzare dal letto, finalmente, grazie a una canzone, una poesia, una scultura, un quadro. Ciò l'arte porta dal regno dello spirito a quello dei corpi nella scia delle emozioni è semplicemente l'impossibile per un robot. Abbiamo bisogno che i nostri film, i nostri dipinti, le nostre poesie e la nostra musica siano realizzati dall’uomo, perché siamo umani. Ma come in ogni conversazione che coinvolga arte o tecnologia, spesso possiamo perderci nella verbosità. Nel 21° secolo stiamo certamente vedendo le conseguenze delle connessioni interrotte. I social media, una forma un tempo innocente di condivider...

Lo sguardo nel tempo della filosofia

Questo non è un manuale, né una cronologia della filosofia.   È un invito. Un invito a pensare senza rete, a incontrare gli autori nel disordine vivo delle idee senza la mappa sicura della storia a guidare il cammino. I saggi che seguono non sono disposti in ordine cronologico: volutamente.  Non si parte dall’antichità per arrivare ai giorni nostri.   Qui si entra in un dialogo che salta nel tempo, che lega in modo inatteso voci lontane, che accosta domande di oggi a risposte di ieri e viceversa. Questo perché la filosofia quando è autentica, non invecchia e non si lascia classificare. Non è una sequenza, ma un’intuizione che torna, un’urgenza che si ripete, una scintilla che si riaccende anche dopo secoli; è lo sguardo che si muove liberamente attraverso il tempo senza esserne prigioniero. Qui la filosofia è un incontro e un urto; è ascolto e spiazzamento. È un tempo che non si misura, ma si abita. Ogni autore trattato è un ritaglio di questo sguardo nel tempo: uno sguar...

Michel Foucault, il filosofo più cercato sulla rete

Secondo una recente analisi, Michel Foucault ha 1,42 milioni di citazioni su Google Scholar, circa il 75% in più di qualsiasi altro autore nella storia. Questo significa che, a oggi, solo la Bibbia ha avuto un impatto maggiore di Foucault nel plasmare la società e la cultura occidentale. Oppure, se consideriamo la cosa a livello individuale, si può a ragione affermare che Michel Foucault sia la persona più influente nella storia della civiltà moderna. Ma perché? Beh, diciamo solo che non è dovuto al fatto che fosse di facile lettura. Le sue idee possono spesso essere eccessivamente astratte e un po' dense. E soprattutto, non è stato lo scrittore più prolifico. Ad esempio, Noam Chomsky, che è praticamente una divinità nel campo della linguistica, ha scritto o contribuito a oltre 1.100 opere pubblicate, mentre i contributi di Foucault ammontano a poco più di 400. E a conti fatti, questo è praticamente meno della metà del totale di Chompsky. Ma l'ironia è che il numero di ...