lunedì 14 ottobre 2024

L'altra faccia della sostenibilità ambientale di AI

 

Non è un segreto che l'AI abbia un problema di energia e, a sua volta, un problema di emissioni. Addestrare, mantenere ed eseguire enormi modelli di AI come ChatGPT, Grok o Stable Diffusion consuma la stessa quantità di energia di intere città. Ma The Guardian ha recentemente scoperto l'enorme portata delle emissioni distruttrici del pianeta che queste AI stanno producendo. La loro indagine ha rivelato che i data center interni (una parte cruciale dell'infrastruttura di AI) dei leader dell'AI Google, Microsoft, Meta e Apple producono 7,62 volte più emissioni di quelle ufficialmente dichiarate da queste aziende! Come sono riusciti a nasconderlo? Beh, lasciatemi spiegare.

Come ho detto, l'AI consuma molta energia. L'AI avanzata moderna richiede terabyte su terabyte di dati organizzati per "addestrare" il modello di AI. Le aziende di AI archiviano questi dati e conducono l'addestramento dell'AI nei data center. Questi sono essenzialmente magazzini giganti pieni di enormi server di memoria e enormi cluster di super-computer basati su GPU. Questi super-computer lavorano alla massima capacità per elaborare questi dati, analizzando le tendenze trovate al loro interno e, nel processo, creando un'AI. Ciò richiede un'enorme quantità di energia! La sola formazione di ChatGPT-4 ha utilizzato circa 7.200 MWh di energia, ovvero abbastanza per alimentare una piccola città degli Stati Uniti per un anno. Quando si interroga un'AI come ChatGPT, si invia effettivamente una richiesta a questo centro dati; l'AI esamina tutti i dati e, utilizzando statistiche basate sulle tendenze trovate, mette insieme una risposta. Ciò richiede anche una tonnellata di energia. Infatti, la ricerca AI di Google utilizza dieci volte l'energia di una ricerca normale.

I centri dati esistono da decenni, ma utilizzarli per un'AI come questa è molto più dispendioso in termini di energia rispetto al passato. Non solo, ma un'abbondanza di nuovi centri dati vengono costruiti in tutto il mondo per alimentare il boom dell'AI. Pertanto, banche come Goldman Sachs prevedono che la domanda di energia dei data center crescerà del 160% entro il 2030.

Tutte le principali aziende di intelligenza artificiale non startup, come Apple, Amazon, Google, Meta e Microsoft, hanno avuto le loro emissioni basate sulla tecnologia sotto esame per anni, quindi si sono impegnate a investire e sviluppare energia rinnovabile internamente, nonché ad acquistare energia rinnovabile, per raggiungere emissioni nette pari a zero prima possibile. Tuttavia, il loro consumo energetico sta ora aumentando a causa dell'intelligenza artificiale e dei data center interni che li alimentano, il che ha messo i bastoni tra le ruote a questi piani ecosostenibili.

È qui che entra in gioco The Guardian. Vedete, si scopre che queste aziende stanno usando una "contabilità creativa" per far sembrare che i loro progetti di intelligenza artificiale non producano quasi nessuna emissione. Ma questo è ben lontano dalla verità.

Questi data center consumano così tanta energia che spesso hanno bisogno di turbine in loco che emettono carbonio per mantenerli in funzione, poiché la rete o qualsiasi energia rinnovabile locale semplicemente non riesce a fornire abbastanza energia. Quindi, anziché pagare per una soluzione energetica a basse emissioni di carbonio o a zero emissioni nette, si rivolgono ai certificati di energia rinnovabile. Si tratta fondamentalmente di crediti di carbonio che dimostrano che un'azienda ha acquistato elettricità generata da fonti rinnovabili altrove per compensare una parte del suo consumo di elettricità in loco. Ciò consente loro di "compensare" le emissioni dei loro data center e di affermare di produrre molte meno emissioni di quelle che effettivamente producono.

Si scopre che queste aziende di intelligenza artificiale si sono scatenate e hanno acquistato una tonnellata di questi certificati di energia rinnovabile, il che consente loro di affermare che i loro data center sono molto più rispettosi dell'ambiente di quanto non siano in realtà.

Il Guardian ha fatto qualche ricerca e ha scoperto che le emissioni effettive di questi data center erano, in media, 7,62 volte superiori a quelle dichiarate! Ma c'erano alcuni valori anomali. Le emissioni dei data center di Google erano solo 2,7 volte superiori a quelle riportate e quelle di Amazon erano solo 5,6 volte superiori. Tuttavia, quelle di Microsoft erano 21 volte superiori, quelle di Apple erano 402 volte superiori e quelle di Meta erano ben 3.100 volte superiori!

Perché questo è importante? Voglio dire, dopotutto, l'effetto complessivo è lo stesso; ecco perché è loro consentito compensare queste emissioni acquistando crediti di energia rinnovabile, giusto?

Beh, non è del tutto vero.

Vedi, non possiamo raggiungere zero emissioni nette bruciando combustibili fossili in un luogo e acquistando energia rinnovabile in un altro e sostenendo che non ha impatto. Questo aumenta comunque la quantità di carbonio nell'atmosfera. Ostacola anche la capacità dei consumatori di scegliere prodotti rispettosi del clima. Se il capitalismo vuole avere qualche speranza all'inferno di fermare il cambiamento climatico, le emissioni effettive delle industrie o delle aziende devono essere cristalline. Senza chiarezza, l'azione governativa sul cambiamento climatico potrebbe essere ostacolata a causa della mancanza di informazioni sull'effettiva intensità di carbonio di un'industria o di un'azienda. È anche semplicemente una bugia alla gente. Queste aziende di intelligenza artificiale sono già tra le entità meno affidabili del pianeta; questo non fa che aumentare quel concetto.

L'industria dell'intelligenza artificiale deve essere più trasparente ed etica. Dalla violazione del copyright al nascondere le proprie emissioni e gonfiare un pallone di mercato, non si stanno comportando esattamente come i buoni. Per il tuo bene e per il mio, spero che possiamo chiedere conto a questa industria selvaggia.

Nessun commento:

Posta un commento

Post più letti in assoluto