venerdì 16 agosto 2024

Per chi si avvicina a ChatGPT


ChatGPT non è solo una parola di moda al giorno d'oggi. La maggior parte dei non tecnici è consapevole delle sue capacità e potenzialità. Tuttavia ci sono alcuni punti importanti che tutti gli utenti di ChatGPT dovrebbero conoscere.

Cos'è ChatGPT?

ChatGPT è un chatbot AI sviluppato da OpenAI e rilasciato a novembre 2022. È stato progettato per comprendere e generare testo simile a quello umano in base all'input ricevuto.

Chi possiede ChatGPT?

ChatGPT è di proprietà di OpenAI, la società responsabile del suo sviluppo e rilascio. OpenAI è impegnata nella ricerca sull'intelligenza artificiale. Originariamente fondata come organizzazione non-profit nel 2015, è passata allo status di organizzazione a scopo di lucro nel 2019.

Chi possiede i testi generati da ChatGPT?

Per quanto riguarda la proprietà del contenuto generato da ChatGPT, OpenAI chiarisce che non rivendicherà il copyright su questo contenuto. In base ai termini di utilizzo, ti viene concesso il diritto di utilizzare il contenuto per qualsiasi scopo, incluso l'uso commerciale come vendite o pubblicazioni. Ciò implica che mantieni la proprietà di qualsiasi contenuto prodotto con ChatGPT e hai la libertà di utilizzarlo come ritieni opportuno.

Come accedo a ChatGPT?

Puoi accedere a ChatGPT registrandoti per un account gratuito: Segui il link (https://chat.openai.com) al sito web di ChatGPT.

Posso pubblicare un testo scritto da ChatGPT?

In base ai termini di utilizzo di OpenAI, gli utenti hanno il diritto di riprodurre il testo generato da ChatGPT durante le conversazioni. Tuttavia, la pubblicazione degli output di ChatGPT può avere implicazioni legali, come la violazione del copyright.

Posso far scrivere il mio articolo accademico a ChatGPT?

In genere non è consigliabile per un paio di motivi. In primo luogo, presentare il lavoro di qualcun altro, anche se proviene da un modello di linguaggio AI come ChatGPT, come se fosse il tuo, è in genere considerato plagio o disonestà accademica.

In secondo luogo, mentre ChatGPT può riorganizzare testi esistenti, non è in grado di creare una conoscenza realmente nuova. Inoltre, non ha conoscenze specialistiche in materie accademiche. Pertanto, affidarsi esclusivamente a questo potrebbe non fornire informazioni accurate o complete in contesti accademici.

ChatGPT può riassumere il testo?

Assolutamente, ChatGPT può effettivamente essere utilizzato per riassumere il testo. Questa funzionalità si rivela utile in vari scenari, come la semplificazione di informazioni complesse, la condensazione dell'argomento principale di un documento o l'elucidazione di una domanda di ricerca.

L'utilizzo di ChatGPT è etico?

ChatGPT e simili strumenti di scrittura AI possono essere soggetti ad applicazioni non etiche, tra cui:

-Fornire pregiudizi e informazioni false

-Utilizzare ChatGPT per impegnarsi in disonestà accademica utilizzando contenuti generati per imbrogliare in contesti accademici.

-Compromettere la privacy degli individui inserendo informazioni personali senza consenso, potenzialmente portando a violazioni e violazioni della privacy.

Cosa significa "ChatGPT"?

GPT sta per "generative pre-trained transformer", un tipo di modello linguistico di grandi dimensioni.

La parte Chat del nome significa semplicemente "chat": ChatGPT è un chatbot con cui interagisci digitando del testo.

Le conversazioni di ChatGPT sono private?

Le conversazioni con ChatGPT sono comunemente utilizzate per addestrare i modelli futuri e risolvere eventuali problemi o bug. I trainer di intelligenza artificiale umana possono monitorare queste chat. Tuttavia, gli utenti hanno la possibilità di rifiutare l'uso delle loro conversazioni per scopi di addestramento. In tali casi, le chat vengono monitorate esclusivamente per identificare e risolvere potenziali abusi o usi impropri.

ChatGPT memorizza le conversazioni?

OpenAI può memorizzare le conversazioni di ChatGPT per scopi di addestramento futuro. Inoltre, queste conversazioni possono essere monitorate dai trainer di intelligenza artificiale umana.

Esiste un'app ChatGPT?

L'app ufficiale di ChatGPT è attualmente esclusiva per i dispositivi iOS. Se non hai un dispositivo iOS, limitati ad accedere allo strumento esclusivamente tramite il sito Web ufficiale di OpenAI.

È possibile rilevare se un testo è generato da ChatGPT?

Sì. I rilevatori di intelligenza artificiale possono essere utilizzati per distinguere tra testo generato dall'intelligenza artificiale e quello prodotto dagli esseri umani. Funzionano identificando attributi particolari nel testo, come la mancanza di casualità nella selezione delle parole e nella lunghezza della frase.

Cosa sono i prompt di ChatGPT?

I prompt di ChatGPT si riferiscono agli input testuali, come domande o istruzioni, che fornisci a ChatGPT per ricevere risposte.

ChatGPT è gratuito?

Sì, ChatGPT è gratuito (almeno attualmente). Devi solo registrarti per un account gratuito per utilizzare lo strumento. Una versione premium dello strumento chiamata ChatGPT Plus è disponibile come abbonamento mensile. Ma è facoltativa.

Per quanto tempo ChatGPT sarà gratuito?

Non è chiaro se ChatGPT non sarà più disponibile gratuitamente in futuro e, in tal caso, quando.

Quando è stato rilasciato ChatGPT?

ChatGPT è stato rilasciato pubblicamente il 30 novembre 2022.

Cosa può fare ChatGPT?

ChatGPT può partecipare a conversazioni, rispondere a domande, fornire informazioni, generare contenuti ed eseguire varie attività linguistiche.

Quanto è accurato ChatGPT?

L'accuratezza di ChatGPT può variare in base all'attività e al contesto. Mira a fornire risposte pertinenti e coerenti, ma a volte potrebbe commettere errori. Anche la qualità dei dati di addestramento e la versione specifica del modello influiscono sull'accuratezza.

ChatGPT può comprendere le emozioni?

No. ChatGPT non può indurre emozioni o sentimenti, il suo prodotto è frutto di algoritmi informatici.

 

mercoledì 14 agosto 2024

Vocabolario dell'ingegneria dei dati

 

Ecco alcuni concetti e i termini chiave utilizzati nell'ingegneria dei dati, raccolti in una pagina per un facile riferimento.

Concetti fondamentali

Big Data: set di dati troppo grandi o complessi per il software di elaborazione dati tradizionale.

Data Pipeline: serie di passaggi di elaborazione dati dall'inserimento all'analisi.

ETL (Extract, Transform, Load): processo di estrazione dei dati dalle fonti, trasformazione e caricamento in una destinazione.

ELT (Extract, Load, Transform): variazione in cui i dati vengono caricati prima della trasformazione.

Data Lake: repository centralizzato per l'archiviazione di dati strutturati e non strutturati su larga scala.

Data Warehouse: sistema per l'archiviazione di dati strutturati e filtrati per analisi e reporting.

Data Mart: sottoinsieme di un data warehouse focalizzato su una specifica linea di business o team.

OLTP (Online Transaction Processing): sistemi che gestiscono applicazioni orientate alle transazioni.

OLAP (Online Analytical Processing): sistemi ottimizzati per query e analisi complesse.

CDC (Change Data Capture): CDC consente il monitoraggio delle operazioni di inserimento, aggiornamento ed eliminazione eseguite sui dati. 

SCD (Slowly Changing Dimensions): gli SCD vengono utilizzati per tracciare i cambiamenti storici negli attributi delle dimensioni. Esistono diversi tipi di SCD (Tipo 1, Tipo 2, Tipo 3, ecc.)


Data Modeling e architettura dei dati

Data Modeling: processo di creazione di un modello di dati per l'archiviazione in un database.

Fact Table: tabella centrale in un data warehouse che archivia dati quantitativi per l'analisi, in genere contenente metriche e chiavi esterne che si collegano alle tabelle delle dimensioni.

Dimension Table: fornisce attributi descrittivi correlati ai fatti nella tabella dei fatti, offrendo informazioni di contesto e di base per l'analisi e la creazione di report.

Schema: descrizione formale della struttura di un database.

Star Schema: schema del data warehouse con una tabella dei fatti centrale collegata alle tabelle delle dimensioni.

Snowflake Schema: variazione dello schema a stella con tabelle delle dimensioni normalizzate.

Data Architecture: progetto che definisce la struttura delle risorse di dati di un'organizzazione.

Master Data Management (MDM): metodo per definire e gestire dati critici.


Tecnologie di database

SQL (Structured Query Language): linguaggio standard per la gestione di database relazionali. 

NoSQL: database che archiviano e recuperano dati utilizzando modelli diversi dalle relazioni tabulari.

ACID: proprietà che garantiscono transazioni di database affidabili (atomicità, coerenza, isolamento, durata).

Possiamo includere DDL, DML ecc.

 

 

Elaborazione e analisi dei dati

Elaborazione batch: elaborazione di grandi quantità di dati contemporaneamente.

Elaborazione in streaming: elaborazione dei dati in piccoli blocchi man mano che arrivano.

Elaborazione in tempo reale: analisi e distribuzione simultanea dei risultati.

Architettura Lambda: architettura di elaborazione dei dati progettata per gestire grandi quantità di dati.

Architettura Kappa: architettura semplificata che tratta tutti i dati come un flusso.

MapReduce: modello di programmazione per l'elaborazione di grandi set di dati in parallelo.

Data Mining: processo di scoperta di modelli in grandi set di dati.

Machine Learning: utilizzo di algoritmi per migliorare le prestazioni di un'attività tramite l'esperienza.


Cloud e sistemi distribuiti

Cloud Computing: fornitura su richiesta di potenza di elaborazione, archiviazione di database, applicazioni e altre risorse IT.

Distributed Systems: sistemi i cui componenti sono posizionati su diversi computer in rete. Microservces: tecnica di sviluppo software in cui un'applicazione è strutturata come una raccolta di servizi debolmente accoppiati.

Serverless Computing: modello di esecuzione del cloud computing in cui il provider cloud gestisce l'infrastruttura del server.


Data Quality and Governance

Data Quality: misura delle condizioni dei dati, tra cui accuratezza, completezza, coerenza e affidabilità.

Data Governance: sistema di diritti decisionali e responsabilità per i processi correlati alle informazioni.

Data Lineage: ciclo di vita dei dati che include le loro origini e dove si spostano nel tempo.

Data Catalog: inventario di tutte le risorse di dati in un'organizzazione.


Performance e optimization

Indexing: tecnica per migliorare le prestazioni del database consentendo un recupero più rapido dei record.

Partitioning: divisione di tabelle di grandi dimensioni in parti più piccole e gestibili.

Sharding: partizionamento orizzontale dei dati in un database o motore di ricerca.

Caching: archiviazione dei dati a cui si accede di frequente nella memoria per un rapido recupero.

 

Varie

API (Application Programming Interface): set di protocolli per la creazione e l'integrazione di software applicativo. REST (Representational State Transfer): stile architettonico per sistemi ipermediali distribuiti.

GraphQL: linguaggio di query per API e runtime per l'esecuzione di tali query.

Blockchain: tecnologia di registro distribuito che mantiene un elenco di record in continua crescita.

IoT (Internet of Things): rete di dispositivi fisici incorporati con elettronica, software, sensori e connettività di rete.

 

Questo vocabolario copre un'ampia gamma di concetti e tecnologie rilevanti per l'ingegneria dei dati. La familiarità con questi termini fornirà una solida base per comprendere e discutere i concetti e le pratiche dell'ingegneria dei dati.

 

martedì 13 agosto 2024

Le noie del dirigente


Circa trenta anni fa, lavoravo come ingegnere informatico presso un’azienda del barese. L'ascensore era sgangherato e inaffidabile, lo usavo per salire al quarto piano.

Un giorno entrai nel vano dell'ascensore e premetti il pulsante per il quarto. Un uomo, che non avevo mai visto prima, mi guardò e mi chiese: "Cosa c'è al quarto piano?".

"È una società di informatica", risposi.

"E di cosa si occupa?".

"Produciamo programmi per aziende e commercialisti".

Senza esitare, mi guardò dubbioso e chiese: "Questo conta nella vita?".

La risposta dell’uomo mi bloccò nel pensare. Ricordo di aver condiviso quello scambio con i miei colleghi e di essere rimasto scioccato dalla sfacciata condiscendenza che le sue parole implicavano. Naturalmente, l'uomo intendeva dire: "È così che scegli di consumare la tua vita?"

Ero stato preso troppo alla sprovvista e le porte dell’ascensore si erano già chiuse, così non ebbi modo di chiedergli cosa facesse per vivere e se questo soddisfacesse il suo alto livello di cose da fare.

Probabilmente l’azienda dove lavoravo non mi ha fatto cambiare radicalmente la vita, sebbene nel suo massimo splendore sia stata utile per tantissimi clienti. In quegli anni ho incontrato amici, colleghi e mentori che mi hanno figurativamente accompagnato per tutta la vita e con i quali ho acquisito l'esperienza necessaria per avviare la mia professione autonoma. Quindi sì, credevo di poter rispondere alla domanda di quell'uomo: "Questo conta nella vita".

Anni dopo quel breve colloquio in ascensore lo ricordai ad un collega di lavoro, facendone un aneddoto da raccontare quando sei insieme ad amici. Ogni volta aggiungevo un particolare trascurato nelle volte precedenti (La scienza suggerisce che, quando ricordiamo un evento, non stiamo pensando all'evento originale, ma piuttosto all'ultima volta che lo abbiamo ricordato).

Alla fine le parole dell'uomo dell'ascensore assunsero un significato completamente nuovo. "Questo conta nella vita?" non era più inteso come un giudizio sul proprio valore. Come saprai, nella vita ci sono alti e bassi, ma mentre gli alti sono pochi e occasionali, i bassi sono numerosi e frequenti. Così, quando uno di noi è stressato, ansioso o sopraffatto dalla quotidianità, ecco che ti sorge la domanda: "Questo conta nella vita?".

Inconsapevolmente, quella domanda ci offre l’opportunità di auto-consolarci poiché viene riformulata così: "Qualsiasi sia il motivo per cui ti senti stressato, sappi che fra non molto non avrà più importanza".

Hai preso una multa e ti sei arrabbiato? Ecco il calmante: "Questo conta nella vita?"

Qualcuno ti ha deluso e ti senti frustrato? Ecco il tuo conforto: "Questo conta nella vita?"

Considera questo atteggiamento come un ottimo esercizio di inquadramento. Un leader efficace deve essere quello che io chiamo “CEO Low Pass”.

La maggior parte delle noie che i leader sperimentano quotidianamente è rumore ad alta frequenza. Sono le cose che non hanno importanza a lungo termine. A volte si tratta di segnali positivi, ma il più delle volte sono negativi. Tuttavia, le cose che contano davvero sono quelle lente, quelle difficili, quelle che richiedono concentrazione e dedizione a lungo termine. Sono le tendenze che si manifestano su periodi di tempo molto lunghi.

Mai lasciarsi abbattere dalle piccole cose.


lunedì 12 agosto 2024

Comunicazione efficace

 
 
Una comunicazione efficace sul posto di lavoro fa sì che le persone prendano decisioni che altrimenti non avrebbero preso.
A volte è facile da vedere. Un capo dà un ordine, poi le persone lo eseguono. Un cartello dice che il bagno è fuori servizio, quindi le persone ne trovano un altro. Un'e-mail ricorda alle persone di seguire la formazione obbligatoria e la maggior parte delle persone lo fa (anche se nessuno vuole).
A volte una comunicazione efficace non è facile da vedere. Un commento nel codice sorgente impedisce a un programmatore di commettere lo stesso errore anni dopo. Un leggero cipiglio di un leader fa sì che le persone che lo conoscono bene approfondiscano ulteriormente alcuni dati ambigui. Una parola gentile dà a qualcuno la pazienza sufficiente per sopportare il crollo nervoso del proprio figlio quella sera.
Il problema è che tutte queste cose sembrano esattamente una comunicazione inefficace sul posto di lavoro! Il capo che dà un ordine che le persone farebbero comunque. Un cartello dice che il bagno è fuori servizio quando il water è rotto. La quarta e-mail per seguire la maledetta formazione. Un commento che indica un bug ovvio per chiunque abbia una vaga familiarità con il linguaggio. Un cipiglio incomprensibile. Una banalità vuota.
Sì, anche uno scambio di informazioni accurato è necessario per una comunicazione efficace. Se le persone non capiscono cosa stai cercando di dire loro, non sarai costantemente efficace. Quindi sapere come comunicare bene è il primo passo. Ma non è il motivo per cui comunichiamo al lavoro. Un messaggio ben comunicato che viene prontamente scartato non aiuta nessuno. Devi cambiare le loro decisioni. Questo è il secondo passo. E questo ha alcune implicazioni sottovalutate.
 
L'efficacia della comunicazione non può essere misurata al mittente.
 
Due persone nella tua azienda possono dire o scrivere esattamente la stessa cosa e ottenere risultati completamente diversi. Diavolo, una persona nella tua azienda può dire o scrivere esattamente la stessa cosa e ottenere risultati completamente diversi semplicemente perché il pubblico o la situazione erano diversi.
Eppure le aziende spesso sviluppano processi di stile unici per la comunicazione: vai a questa riunione, segui questo schema, assicurati di rimanere nei limiti. Lo vedi con riunioni in piedi e aggiornamenti di stato e modelli di revisione del codice e sistemi di ticket standardizzati e revisioni delle prestazioni e sondaggi a impulsi. Sono ben intenzionati. Alcuni sono persino utili!
Questo tipo di processi sono ottimi per forzare un livello di base di efficacia per la maggior parte del pubblico. Ma limitano anche il possibile livello di efficacia perché si rivolgono alla maggior parte del pubblico. Meno riesci a adattare la tua comunicazione al tuo pubblico, meno efficace può essere.
Peggio ancora, la comunicazione standardizzata crea una trappola per i manager e i singoli collaboratori perché è tutta focalizzata sul mittente. Ci fissiamo sul come della comunicazione piuttosto che sul perché. In questi ambienti, se qualcuno non è efficace, deve essere perché non sta seguendo abbastanza bene il processo! La comunicazione è una strada a doppio senso, ma non guardiamo mai al pubblico. Non consideriamo mai che forse le persone con cui questa persona sta comunicando non traggono molti benefici dai processi di comunicazione standardizzati. E certamente non incoraggiamo la persona in difficoltà a rischiare di lavorare al di fuori dei processi standard per essere un comunicatore più efficace.
 
Una comunicazione efficace avviene prima della decisione.
 
Questo potrebbe essere un po' ovvio, ma non puoi influenzare una decisione che è già stata presa. Puoi far sì che qualcuno prenda una nuova decisione che contraddica la prima. Puoi fargli pensare meglio o peggio di quella decisione a posteriori. Ma tutto ciò è una lotta in salita contro il pregiudizio di conferma.
Un po' meno ovvio è il ritardo temporale tra il dire o scrivere qualcosa e sapere se è stato efficace o meno. Se stai decidendo dove andare a pranzo, quel ritardo temporale potrebbe essere molto breve. Dal momento che vengono sollevate solo poche argomentazioni, è più facile dire quali sono state efficaci. Considera invece la decisione del tuo capo di promuoverti (o meno). Di solito c'è un intero anno di input che influenza la sua decisione. Qualcosa di ciò che dici farà la differenza? Assolutamente. Modelli costantemente l'impressione che il tuo capo ha di te. Cambierà la sua decisione? Non ne avrai idea finché non prenderà effettivamente la decisione, e anche in quel caso, in un periodo di tempo così lungo, è quasi impossibile determinare che tipo di influenza hai avuto su di essa.
Almeno i cicli di promozione sono prevedibili. Molte altre decisioni sul posto di lavoro sono furtive e sorprendenti che avvengono in riunioni a tre passi di distanza da te. Se aspetti, esprimendo la tua opinione solo dopo che quelle riunioni sono diventate pubbliche, non sarai molto efficace. Non solo è in gioco il pregiudizio di conferma, ma l'intero slancio burocratico dell'azienda sta accelerando in una direzione diversa. Ci vorrà molta persuasione per contrastarlo. Probabilmente più di quanta una persona possa fornire.
 
Ci sono due approcci principali che possono aiutarti in questo caso. Uno è semplicemente parlare preventivamente con le persone di cose che sono importanti per te. Pensi che le iniziative DEI siano fondamentali per una forza lavoro sana? Parlane con le persone che potrebbero essere presenti a quelle riunioni. Pensi che i test automatizzati siano molto più efficaci dei test manuali? Dillo. Assicurati che le persone ti ascoltino prima che le decisioni vengano prese, perché non sarai così efficace in seguito.
L'altro approccio è ascoltare molto. Di solito c'è molta comunicazione prima di una decisione. Potresti non essere in grado di sentirla o vederla direttamente, ma puoi imparare a rilevare alcuni dei segnali. Ciò significa avere un'ampia rete di persone che ascolti e costruire relazioni in modo da capire quando le cose sono nell'aria. Se fai un lavoro abbastanza buono, le persone ti avvertiranno delle decisioni imminenti o addirittura ti chiederanno esplicitamente il tuo contributo. Quindi hai la possibilità di comunicare in modo efficace.
 

sabato 10 agosto 2024

Le idee di Platone viste da AI


 
Qualche giorno fa, mi sono imbattuto in una nuova teoria che unisce AI e filosofia: le AI stanno diventando tutte la stessa cosa? In altre parole, tutti i futuri modelli di AI saranno identici?

In effetti, i ricercatori hanno trovato prove evidenti che questo potrebbe già accadere, poiché tutti i modelli sembrano convergere verso una rappresentazione "platonica":

Se fosse vero, le ripercussioni economiche e filosofiche sarebbero enormi, poiché ciò potrebbe indicare che le AI, grazie ai modelli di base, stanno iniziando a scoprire, spiegare e, soprattutto, predire la realtà stessa.

Per capire perché i ricercatori pongono questa domanda, dobbiamo capire come i modelli interpretano il mondo. E questo può avvenire attraverso le rappresentazioni.

Per ogni singolo concetto del mondo che apprendono, i modelli di AI costruiscono una rappresentazione, un modo compresso di descriverlo che cattura gli attributi chiave.

In particolare, i modelli di AI trasformano ogni concetto in incorporamenti, una rappresentazione in forma vettoriale.

Ma perché i vettori? Bene, se tutto nel mondo diventa un vettore, otteniamo due cose:

Concetti in forma numerica: le macchine possono interpretare solo numeri. Pertanto, tutto deve essere interpretato in qualche modo sotto forma di numeri

Somiglianza: avendo tutto come vettore, possiamo misurare la distanza tra loro.

Pertanto, i modelli costruiscono uno spazio ad alta dimensione (molti numeri per vettore) di concetti del mondo che descrive la comprensione del mondo da parte del modello, uno spazio governato da un principio: la relazione, come la definisce OpenAI.

In questo mondo interiore, più i due concetti del mondo reale sono simili, più i loro vettori devono essere vicini in questo spazio.

Ad esempio, in questo spazio, "cane" e "gatto" sono più vicini nello spazio di "cane" e "finestra", ma anche di "cane" e "piccione", perché "cane" e "gatto" sono più correlati semanticamente.

Ma come costruiscono questo spazio?

Utilizzando l'esempio di "cane" e "gatto", vedendo miliardi di testi, il modello si rende conto che "cane" e "gatto" sono parole che vengono utilizzate in casi simili in tutto il linguaggio umano. Quindi, concludono che devono essere simili.

In modo Affascinante, gli spazi latenti (questo è il nome di questi spazi) funzionano in entrambi i modi: non solo ci aiutano a insegnare ai modelli di intelligenza artificiale come i concetti del mondo, ma possono anche aiutare a scoprire modelli del mondo che gli esseri umani non hanno ancora realizzato.

A quanto pare, l'intelligenza artificiale è migliore degli esseri umani nel trovare pattern matching, trovando pattern chiave in dati che inizialmente ci sembravano inconsapevoli o che eravamo troppo prevenuti per riconoscere (l'intelligenza artificiale può colmare il divario tra la cultura occidentale e le altre; ad esempio, le persone nei paesi non occidentali esprimono determinate emozioni in modo diverso).

Pertanto, se le AI sono davvero in grado di avere una visione "imparziale" della realtà; sono in grado di osservare la realtà così com'è? E la risposta, teorizzano i ricercatori, è sì.

L'allegoria della caverna

Le AI possono apprendere la vera natura della realtà che causa ogni osservazione o evento?

Se così fosse, potremmo alla fine far maturare la nostra formazione di AI così tanto che i nostri modelli di base si evolvano nello stesso modello, poiché esiste un solo vero modo di interpretare la realtà così com'è?

Per convalidare questa teoria, i ricercatori hanno affermato che le rappresentazioni di questi modelli dovrebbero convergere tutte in un'unica rappresentazione del mondo, un modo oggettivamente vero e universale di rappresentare la realtà.

Pensa alla costruzione della rappresentazione come a un atto di intelligenza. Più la mia rappresentazione del mondo è vicina alla realtà, più sto dimostrando di capirla.

Ma come possiamo verificare se ciò sta accadendo? Per farlo, i ricercatori hanno confrontato gli spazi latenti di diversi modelli popolari. Tuttavia, non è importante solo la distribuzione complessiva delle rappresentazioni concettuali, ma anche le loro distanze.

Vale a dire, la rappresentazione che un modello assegna al colore "rosso" dovrebbe essere simile non solo ad altri modelli nella stessa modalità (confrontando LLM), ma anche il modo in cui un modello linguistico e un modello di visione interpretano (codificano) il "rosso" dovrebbe essere simile.

In termini semplici, la distanza tra "rosso" e "blu" dovrebbe essere uguale tra i modelli se tutti interpretano il colore rosso come lo presenta la realtà. In questo modo, stiamo dimostrando che entrambi i modelli stanno convergendo nello stesso concetto di "rosso".

Questo è ciò che la teoria della rappresentazione platonica significa: che la realtà non dipende dagli occhi di chi guarda; è universale. Ma perché chiamarla rappresentazione platonica? Una visione parziale della realtà

In particolare, i ricercatori fanno riferimento all'Allegoria della caverna di Platone, dove i dati attuali che stiamo fornendo ai modelli sono le ombre, una vaga rappresentazione della realtà, e i nostri precedenti sistemi di intelligenza artificiale sono le persone che osservano le ombre, il che significa che hanno solo una visione parziale della vita.

Ma con la scala e l'essere costretti a svolgere più attività contemporaneamente, i modelli di base potrebbero trascendere i loro dati, emergendo infine dalla caverna per apprendere la vera natura della realtà.

Si può sostenere che i dati di addestramento sono l'"ombra" perché gli umani sono ancora ignari della vera natura della realtà fino ad oggi.

Ciò dimostrerebbe anche che i nostri attuali metodi di addestramento dell'intelligenza artificiale, l'apprendimento per imitazione sui dati umani, non potranno mai raggiungere l'AGI (vedi nota), per non parlare della superintelligenza, perché i limiti dell'umanità incatenano le nostre AI a vedere il mondo nel modo distorto in cui lo facciamo noi.

In questo scenario, non costruiremmo mai l'AGI finché non svilupperemo un metodo per le AI per osservare il mondo e imparare da esso, invece che attraverso il proxy dei dati umani.

Un esempio concreto: se un giorno le nostre AI potessero osservare la realtà così com'è, indipendentemente dalla modalità (modelli linguistici, modelli di immagine o modelli video), dovrebbero avere tutte una definizione identica della realtà.

 

Nota: Il termine AGI (Artificial General Intelligence) racchiude il significato di un sistema capace di apprendere, comprendere e funzionare in modo quasi indistinguibile da un’intelligenza umana. A differenza della “narrow AI”, non sarebbe limitata a compiti specifici, ma potrebbe trasferire conoscenze e competenze attraverso diversi domini, risolvendo problemi

Post più letti in assoluto