Passa ai contenuti principali

Etica jonasiana dell'intelligenza artificiale


 Hans Jonas (1903-1993) è stato un filosofo eccezionalmente perspicace e lungimirante. La sua opera, "L'imperativo della responsabilità", pubblicata nel 1979, affronta questioni etiche che rimangono di straordinaria attualità ancora oggi, al punto che l'intera opera appare spesso profetica. Forte critico dello sviluppo tecnologico in generale e delle biotecnologie in particolare, Jonas non visse abbastanza a lungo per assistere al boom dell'intelligenza artificiale. Ma quale sarebbe stata la sua posizione al riguardo?

La riflessione di Jonas parte dalla consapevolezza di un cambiamento nel rapporto uomo-tecnologia nell'era contemporanea. La tecnologia, un tempo un mero strumento nelle mani dell'uomo per raggiungere obiettivi specifici, ora incarna essa stessa un fine intrinseco: la dinamica tecnologica è autoalimentante; non ha alcuno scopo al di fuori di sé.

L'eccessiva fiducia nel "mito prometeico" della tecnologia, l'impegno totale e incondizionato verso il progresso tecnologico come valore assoluto, finisce per rafforzare questa dinamica autoperpetuante. E ora, la tecnologia ha il potenziale di moltiplicare i suoi impatti in modo esponenziale, imprevedibile e potenzialmente catastrofico per l'umanità, rendendo l'etica classica inadeguata.

Jonas comprese che l'etica del passato, concentrata sulle relazioni umane immediate e sui contesti d'azione ristretti, non era in grado di rispondere alla "minaccia tecnologica" della nostra epoca. Da questa comprensione deriva l'impellente necessità di una nuova etica orientata al futuro, un'etica in grado di garantire la sopravvivenza delle generazioni future.

Etica jonasiana dell'intelligenza artificiale

Il cuore della filosofia di Jonas risiede nel suo "principio di responsabilità", che è alla base di un'etica caratterizzata dalla sua natura teleologica e consequenzialista. A differenza dell'etica tradizionale che troppo spesso si concentra sulle motivazioni dell'agente o sulla bontà intrinseca dell'azione, Jonas dà una svolta radicale all'attenzione sulle conseguenze finali delle nostre azioni.

Un pilastro della filosofia di Jonas, il suo imperativo categorico, ha una forte risonanza con i nuovi problemi generati dalla tecnologia avanzata:

"Agisci in modo che gli effetti della tua azione siano compatibili con la permanenza di una vita umana autentica".

O, per dirla in modo leggermente diverso: "Agisci in modo che gli effetti della tua azione non siano distruttivi della possibilità futura di tale vita".

Questa riformulazione dell'imperativo kantiano in chiave teleologica e tecnologica non è un semplice invito alla prudenza e alla cautela, ma un comando etico assoluto che trascende il benessere individuale per abbracciare la sopravvivenza e la qualità futura della specie umana e del pianeta.

A prima vista, sembra che un'etica jonasiana dell'IA imponga requisiti piuttosto semplici da soddisfare. Ma, a un esame più attento, le cose non sono così semplici.

Proviamo ad applicare l'etica jonassiana al seguente scenario:

Entro il 2080, l'intelligenza artificiale e i robot intelligenti saranno definitivamente entrati nelle case di cura. Tutti gli anziani in stato vegetativo o con gravi deficit cognitivi saranno inseriti in un programma di realtà virtuale immersiva. In questa realtà, l'anziano incarna una versione giovane, sana, attiva e vivace di sé. Questo gli permette di sfuggire alle sue funzioni cognitive compromesse e di godersi una vita simulata, ma gratificante.

Mentre l'anziano è completamente immerso nell'esperienza virtuale, i robot intelligenti si prendono cura di tutte le sue esigenze fisiche, dall'alimentazione al monitoraggio costante delle funzioni vitali. Tutto ciò contribuisce anche ad aumentare l'aspettativa di vita dell'anziano.

Questo scenario sarebbe compatibile con l'imperativo jonassiano?

A prima vista, potrebbe sembrare di sì: questa futuristica casa di cura impiegherebbe tecnologie all'avanguardia perfettamente compatibili con la sopravvivenza della vita umana sulla Terra. Anzi, contribuirebbe addirittura ad estenderla, garantendo assistenza continua, sicurezza e assenza di sofferenza.

Tuttavia, l'imperativo jonassiano contiene una parola molto importante, "genuino". Secondo l'etica jonassiana, la mera sopravvivenza non è sufficiente a soddisfare i requisiti dell'imperativo; è anche necessaria affinché un'umanità autentica sopravviva.

E qui la discussione si complica, perché Jonas stesso non definisce chiaramente cosa renda l'umanità autentica, cosa sia l'autenticità. Ma il suo discorso sembra riferirsi a una presunta sacralità dell'"essenza umana", un limite inviolabile che la tecnologia non dovrebbe mai violare.

Jonas sarebbe probabilmente contrario alla casa di cura con il programma di realtà virtuale, perché ciò che verrebbe preservato sarebbe solo la vita biologica, non la vita autenticamente umana; cioè una vita fatta di verità, relazioni umane reali e significative e responsabilità reciproca.

Per il filosofo, l'illusione di felicità e il mantenimento artificiale del corpo non sarebbero sufficienti: senza libertà, alterità e contatto con il mondo reale, la sopravvivenza diventa una parodia della vita.

Il suo imperativo esige non solo che le generazioni future esistano, ma anche che possano esistere come autenticamente umane.

Si tratta quindi di un'etica formalmente consequenzialista, ma sostanzialmente caratterizzata da vincoli deontologici molto forti, che impongono doveri morali innegabili. L'essenza umana è trattata come qualcosa di intoccabile, non manipolabile tecnologicamente, portatore di un valore assoluto che precede qualsiasi forma di utilità o funzionalità.

In questo senso, l'essenza umana appare come una soglia intangibile che deve essere custodita con riverenza, al di là della sua concreta determinazione concettuale.

Nell'era dell'IA, l'imperativo jonasiano ci ricorda il dovere assoluto di promuovere solo quelle tecnologie che non mettono a repentaglio l'esistenza presente e futura di un'umanità autentica.

L'imperativo di responsabilità, che il filosofo aveva già applicato alle biotecnologie come la clonazione e l'ingegneria genetica, dovrebbe applicarsi anche all'IA.

La domanda che si porrebbe, e che dovremmo porci anche noi, è: quali usi dell'IA soddisferebbero i requisiti dell'imperativo jonasiano? Quali usi metterebbero invece a repentaglio la sopravvivenza dell'umanità autentica?

È chiaro che Jonas non si opporrebbe allo sviluppo dell'IA in quanto tale. Piuttosto, distinguerebbe tra IA incentrata sull'uomo, in cui l'IA viene utilizzata principalmente per semplificare e ottimizzare le attività quotidiane, e tecnologie di IA in grado di violare irreversibilmente l'essenza e l'autonomia umana.

Tra queste, ad esempio: Interfacce neurali che integrano l'IA nel cervello: potremmo ancora definirci esseri umani autentici se la nostra identità e volontà fossero alterate da algoritmi?

IA applicata al miglioramento morale: se l'IA fosse in grado di programmarci per essere più morali, potremmo ancora considerarci agenti morali liberi?

IA per l'immortalità digitale: potremmo davvero considerarci esseri umani autentici se diventassimo immortali?

In parole povere, Jonas sarebbe probabilmente scettico nei confronti di un'intelligenza artificiale progettata per promuovere gli obiettivi del transumanesimo, l'idea di superare i limiti umani. Allo stesso tempo, sarebbe probabilmente aperto a strumenti di intelligenza artificiale più modesti e non invasivi, che supportino le persone senza cercare di controllarle o modificarle.

Hans Jonas era un filosofo acuto che intuì la direzione in cui si stava muovendo la società. Capì che la tecnologia stava per creare scenari che non eravamo preparati ad affrontare. Riconobbe che un'etica orientata al futuro, se lasciata senza chiari vincoli deontologici, poteva essere intrinsecamente pericolosa. Senza volerlo, ci ha lasciato un solido quadro etico che può essere applicato all'IA oggi.

Direttamente o indirettamente, il suo lavoro pionieristico ha già influenzato i decisori politici ad adottare il principio di precauzione per la valutazione del rischio in materia ambientale, di salute pubblica e di sicurezza alimentare. Ora è il momento giusto per applicare questo principio all'IA, in modo che non diventi una fonte di danno ma rimanga uno strumento a beneficio dell'umanità.

Commenti

Post popolari in questo blog

Siti interessanti da esplorare

  Ecco alcuni siti web utili e interessanti da provare. Iniziando con un sito web che offre informazioni sui cambiamenti nel mondo e concludendo con un sito web per assicurarti che il tuo dispositivo e i tuoi file siano sicuri. Our World In Data — Our World in Data ( ourworldindata.org ) è un sito web molto affascinante per coloro che sono interessati a conoscere i cambiamenti che avvengono intorno a noi in una forma user-friendly di grafici e diagrammi colorati. Ci sono diversi argomenti come Popolazione, Salute, Ambiente, Innovazione e molto altro. Questo ci aiuta a capire come il mondo sta cambiando nel tempo e le implicazioni che ne derivano. Non ho la TV - I Have No TV ( ihavenotv.com ) è un sito web di streaming diverso da quelli che vediamo adesso, pieno di paywall e contenuti distraenti. Non ha niente a che vedere con il Netflix o il Prime Video del mondo. Questo mira a fornire contenuti utili al suo pubblico senza alcun costo o abbonamento. Il database ospita oltr...

L'altra faccia della sostenibilità ambientale di AI

  Non è un segreto che l'AI abbia un problema di energia e, a sua volta, un problema di emissioni. Addestrare, mantenere ed eseguire enormi modelli di AI come ChatGPT, Grok o Stable Diffusion consuma la stessa quantità di energia di intere città. Ma The Guardian ha recentemente scoperto l'enorme portata delle emissioni distruttrici del pianeta che queste AI stanno producendo. La loro indagine ha rivelato che i data center interni (una parte cruciale dell'infrastruttura di AI) dei leader dell'AI Google, Microsoft, Meta e Apple producono 7,62 volte più emissioni di quelle ufficialmente dichiarate da queste aziende! Come sono riusciti a nasconderlo? Beh, lasciatemi spiegare. Come ho detto, l'AI consuma molta energia. L'AI avanzata moderna richiede terabyte su terabyte di dati organizzati per "addestrare" il modello di AI. Le aziende di AI archiviano questi dati e conducono l'addestramento dell'AI nei data center. Questi sono essenzialmente magaz...

Paura irrazionale del Nucleare

L'energia nucleare sta vivendo una rinascita in tutto il mondo: nuovi reattori sono in costruzione o in fase di pianificazione avanzata in oltre 20 paesi, tra cui quelli chiave come Cina, Giappone, India, Regno Unito, Francia, Russia, Stati Uniti... Alla conferenza sui cambiamenti climatici COP28 delle Nazioni Unite, molti di questi paesi hanno firmato per triplicare la capacità energetica nucleare globale entro il 2050. Perché le persone sostengono l'energia nucleare nella maggior parte dei paesi? Il nucleare è il miglior tipo di energia in tutti i fattori che contano: sicurezza, ambiente, sostenibilità, affidabilità, politica ed economia. Il nucleare sembra pericoloso e rischioso perché gli incidenti sembrano monumentali e il pericolo è invisibile. Risveglia una paura primordiale negli esseri umani, come gli incidenti aerei. Ma quando si misura la sicurezza effettiva, si scopre che l'energia nucleare è tra le fonti di elettricità più sicure. Il modo migliore per misu...