Passa ai contenuti principali

Le reti neurali liquide (LNN)


 

Le reti neurali liquide (LNN) sono una direzione entusiasmante e relativamente nuova nella ricerca AI/ML che promette reti neurali più compatte e dinamiche per la previsione delle serie temporali. Le LNN offrono un nuovo approccio ad attività come la previsione del meteo, il riconoscimento vocale e la guida autonoma. Il vantaggio principale offerto dalle LNN è che continuano ad adattarsi a nuovi stimoli dopo l'addestramento. Inoltre, le LNN sono robuste in condizioni rumorose e sono più piccole e più interpretabili delle loro controparti convenzionali.

Le LNN e concetti simili esistono da un po', ma il documento del 2020, Liquid Time Constant Networks, le ha catapultate in prima linea nello spazio AI/ML. Da allora, si sono consolidate come una direzione affascinante per i predittori di serie temporali volti ad aumentare la capacità rappresentativa dei singoli neuroni anziché derivare la capacità attraverso la scala.

Durante lo sviluppo del concetto di LNN, Hasani si è ispirato direttamente ai neuroni biologici nel nematode C. elegans, un verme rotondo microscopico. Ramin Hasani, autore principale del documento del 2020, osserva che "It [C. Elegans] ha solo 302 neuroni nel suo sistema nervoso, eppure può generare dinamiche inaspettatamente complesse". La missione di Hasani era quella di "avere meno nodi ma più ricchi". Il risultato sono stati gli LNN.

La parte "liquida" dell'acronimo deriva dall'uso da parte della rete di una costante di tempo liquida (LTC), che è un termine dipendente dall'input che altera la forza delle connessioni della rete per adattarsi a nuovi input. L'LTC è il motivo per cui gli LNN possono adattarsi a nuovi input dopo l'addestramento. Inoltre, la costante di tempo liquida, così come i pesi dei nodi, sono limitati. Ciò significa che gli LNN non sono suscettibili all'esplosione del gradiente come gli RNN tradizionali e altre architetture ricorrenti in tempo continuo.

Gli LNN hanno diversi vantaggi rispetto ai tradizionali framework di previsione delle serie temporali. Innanzitutto, la loro adattabilità. Gli LNN possono alterarsi per modellare nuove distribuzioni dopo l'addestramento grazie alla loro natura "liquida". Questa adattabilità li rende molto capaci in attività con distribuzioni di dati mutevoli e rumore eccessivo. La robustezza delle LNN le rende anche trasferibili tra le attività.

La maggiore densità informativa di ogni neurone significa che le piccole LNN possono modellare comportamenti complessi che potrebbero richiedere decine o centinaia di migliaia di nodi convenzionali per essere modellati.

Questa riduzione delle dimensioni consente alle LNN di essere più trasparenti delle reti neurali convenzionali. Le grandi reti neurali sono scatole nere perché i loro numerosi pesi e nodi rendono difficili da analizzare le relazioni individuali. Riducendo anziché aumentando la scala, nodi e pesi possono essere interpretati nel contesto e puoi non solo raggiungere il tuo obiettivo, ma anche sapere perché lo hai fatto.

 

Commenti

Post popolari in questo blog

Siti interessanti da esplorare

  Ecco alcuni siti web utili e interessanti da provare. Iniziando con un sito web che offre informazioni sui cambiamenti nel mondo e concludendo con un sito web per assicurarti che il tuo dispositivo e i tuoi file siano sicuri. Our World In Data — Our World in Data ( ourworldindata.org ) è un sito web molto affascinante per coloro che sono interessati a conoscere i cambiamenti che avvengono intorno a noi in una forma user-friendly di grafici e diagrammi colorati. Ci sono diversi argomenti come Popolazione, Salute, Ambiente, Innovazione e molto altro. Questo ci aiuta a capire come il mondo sta cambiando nel tempo e le implicazioni che ne derivano. Non ho la TV - I Have No TV ( ihavenotv.com ) è un sito web di streaming diverso da quelli che vediamo adesso, pieno di paywall e contenuti distraenti. Non ha niente a che vedere con il Netflix o il Prime Video del mondo. Questo mira a fornire contenuti utili al suo pubblico senza alcun costo o abbonamento. Il database ospita oltr...

L'altra faccia della sostenibilità ambientale di AI

  Non è un segreto che l'AI abbia un problema di energia e, a sua volta, un problema di emissioni. Addestrare, mantenere ed eseguire enormi modelli di AI come ChatGPT, Grok o Stable Diffusion consuma la stessa quantità di energia di intere città. Ma The Guardian ha recentemente scoperto l'enorme portata delle emissioni distruttrici del pianeta che queste AI stanno producendo. La loro indagine ha rivelato che i data center interni (una parte cruciale dell'infrastruttura di AI) dei leader dell'AI Google, Microsoft, Meta e Apple producono 7,62 volte più emissioni di quelle ufficialmente dichiarate da queste aziende! Come sono riusciti a nasconderlo? Beh, lasciatemi spiegare. Come ho detto, l'AI consuma molta energia. L'AI avanzata moderna richiede terabyte su terabyte di dati organizzati per "addestrare" il modello di AI. Le aziende di AI archiviano questi dati e conducono l'addestramento dell'AI nei data center. Questi sono essenzialmente magaz...

Apple Smart Ring

Come nuova categoria di dispositivi indossabili, gli anelli intelligenti hanno guadagnato popolarità negli ultimi anni. Tuttavia, secondo Mark Gurman, un noto informatore sui prodotti Apple, Apple non ha intenzione di entrare in questo campo e il vociferato "iRing" potrebbe non incontrare presto il gusto dei clienti. Il principale punto di forza degli anelli intelligenti è la loro funzione di monitoraggio della salute. Prendiamo, ad esempio, il Galaxy Ring di Samsung, uscito a luglio di quest'anno. Tiene traccia dei movimenti, del sonno, della frequenza cardiaca e della frequenza respiratoria di un utente e genera un punteggio giornaliero del sonno e un punteggio energetico in base ai dati. Gurman ha sottolineato che se Apple lancia uno smart ring, è probabile che si crei una concorrenza omogenea con l'Apple Watch, che cannibalizza le vendite di quest'ultimo. Già a febbraio di quest'anno, è stato riferito che il team di progettazione industriale di Apple av...