Progresso tecnologico vs riduzione dei rischi esistenziali: La filosofia del longtermismo

longtermismo

Il progresso scientifico e tecnologico ha seguito una traiettoria ascendente per secoli. Se questo andamento dovesse continuare anche in futuro, l’umanità potrebbe attraversare una fase di espansione senza precedenti, dato che avrebbe il potenziale ipotetico di colonizzare innumerevoli sistemi stellari, costruire civiltà diffuse nella galassia, nonché dare origine a trilioni di vite potenzialmente ricche di valore.

Questa semplice osservazione porta con sé implicazioni etiche molto profonde. Significa, infatti, che le nostre azioni presenti — scientifiche, politiche, ambientali o culturali — potrebbero influenzare non solo le generazioni immediate, ma un numero astronomico di persone che potrebbero esistere nei millenni o nei milioni di anni a venire.

Da questa intuizione nasce il longtermismo, una corrente di pensiero filosofico, oggi al centro del dibattito etico internazionale.

Che cos’è il longtermismo? 

Il longtermismo è una corrente di pensiero che considera eticamente prioritario influenzare positivamente il futuro dell’umanità «a lungo termine».

L’idea alla base di questo filone filosofico è semplice: se il futuro potrebbe contenere un numero straordinariamente elevato di vite — e se quelle vite possono essere rese migliori dalle nostre scelte attuali — allora la nostra etica dovrebbe includere seriamente anche gli individui che ancora non esistono.

Una domanda però rimane aperta: quali azioni hanno effettivamente il maggior impatto sul futuro lontano?

Due strategie per influenzare il futuro: sviluppo tecnologico e riduzione dei rischi esistenziali

Secondo il filosofo Nick Bostrom, esistono due modi principali in cui possiamo incidere sul destino dell’umanità, e sono:

  1. Accelerare lo sviluppo tecnologico,

  2. Ridurre il rischio di catastrofi esistenziali.

Vediamoli nel dettaglio.

1. Accelerare il progresso tecnologico

Nick Bostrom propone un ragionamento che, a prima vista, può sembrare estremo, ma in realtà serve solo a farci capire la scala del potenziale umano. L’idea è questa: se la nostra specie riuscisse un giorno a colonizzare lo spazio, persino una piccola parte dell’universo potrebbe ospitare un numero di persone immensamente superiore a quello attuale.

Per rendere l’idea, Bostrom ipotizza che circa 10 miliardi di esseri umani (più o meno la popolazione terrestre prevista a breve) potrebbero vivere attorno a una singola stella di dimensioni simili al sole.

Ora consideriamo il superammasso della Vergine, una gigantesca struttura cosmica che contiene al suo interno trilioni di stelle. Secondo Bostrom, questo spazio cosmico potrebbe ospitare al suo interno 10²³ esseri umani.

Che cosa significa 10²³?

  • È pari a 10 miliardi × 10 trilioni di stelle.

  • E un trilione è mille miliardi.

Già oggi quasi 8 miliardi di persone vivono intorno a un’unica stella — il Sole — quindi l’ipotesi di Bostrom, seppur enorme, non è così assurda se la proiettiamo su un futuro tecnologicamente avanzato. Inoltre, con nuove tecnologie potremmo aumentare le risorse disponibili, migliorare radicalmente la qualità della vita ed ampliare i limiti di ciò che è possibile.

Questo è il dilemma principale: Se il futuro potrebbe contenere così tante vite, allora rallentare il progresso scientifico significa rinunciare a un valore immenso.

Secondo i suoi calcoli, un solo secondo di ritardo nell’avvio dell’espansione spaziale equivale, ad una perdita, di 100 trilioni di vie umane potenziali.

Per visualizzarlo, immagina un grafico, dove:

  • Sull’asse orizzontale c’è il tempo,

  • Su quello verticale il valore generato (espresso come vite potenziali).

Se scopriamo una tecnologia chiave prima del previsto, tutta la curva del progresso si sposta “a sinistra”, dato che quella scoperta tecnologica ha iniziato a generare valore prima.

Ma c’è un problema: anticipare il progresso non è l’unico modo — né il più potente — per influenzare il futuro dell’umanità.

2. Ridurre i rischi esistenziali

Ora immagina uno scenario opposto: una catastrofe globale così grave da far estinguere l’umanità o da impedirle per sempre di raggiungere il suo pieno potenziale tecnologico. Potrebbe trattarsi di una pandemia estremamente letale, di una guerra nucleare totale, di un asteroide gigantesco o di un’intelligenza artificiale non controllata.

In un caso del genere, tutto il valore futuro dell’umanità scomparirebbe all’istante. È come perdere in un colpo solo tutte le potenziali vite, civiltà, scoperte e mondi che l’umanità avrebbe potuto costruire nei prossimi milioni o miliardi di anni.

Per questo Bostrom sostiene che, eticamente, ridurre i rischi esistenziali sia molto più importante che accelerare la tecnologia. Anche un piccolo miglioramento nelle probabilità di sopravvivere come specie ha un impatto enorme.

Secondo i suoi calcoli, ridurre anche di solo l’1% la probabilità che l’umanità si estingua equivale, come valore generato, a 10 milioni di anni di progresso tecnologico accelerato.

In altre parole: prevenire la catastrofe è immensamente più importante, rispetto ad una corsa frenetica verso il progresso.

Come valutiamo davvero il nostro impatto? Il concetto chiave di “valore atteso”

Immagina adesso di trovarti davanti a due possibili decisioni importanti per il futuro dell’umanità. Non sai quale delle due sia più urgente, né quale abbia un impatto maggiore. Per confrontarle, Bostrom usa il concetto chiave di valore atteso.

Che cos’è il valore atteso?

Il valore atteso serve a rispondere a una domanda essenziale: “Quanto vale in media una certa cosa, considerando la probabilità che succeda?”

La formula è: VALORE ATTESO = IMPATTO×PROBABILITAˋ CHE ACCADA

Un esempio semplicissimo

Immagina due situazioni:

Situazione A: piccola catastrofe molto probabile

  • Danno: 100

  • Probabilità che accada: 50%

100 x 0,5 = 50

Valore atteso del danno = 50

Situazione B: enorme catastrofe, ma poco probabile

  • Danno: 1.000.000

  • Probabilità che accada: 1%

1000 000 x 0,01 = 10 000

Valore atteso del danno = 10.000

👉 Anche se è poco probabile, la seconda è molto, molto peggiore. Questo è il punto fondamentale da tenere in considerazione.

Ora applichiamolo al rischio di estinzione umana

Il filosofo Toby Ord ha stimato che la probabilità che l’umanità si estingua nei prossimi secoli è del 16%.

Per capirlo con la formula:

VALORE DELLA PERDITA ATTESA = 0,16 x ( TUTTE LE VITE FUTURE POSSIBILI )

Se il futuro potrebbe contenere trilioni e trilioni di persone, allora, anche una probabilità non altissima (16%), moltiplicata per un numero gigantesco (tutte quelle vite future) produce un valore atteso enorme.

👉 Significa che perdere il futuro dell’umanità sarebbe, in media, una tragedia di proporzioni inimmaginabili.

Niente ha una probabilità del 100% di funzionare, ma tutto può essere valutato attraverso il suo impatto atteso medio.

Il valore atteso ci aiuta a capire una cosa fondamentale: non conta solo cosa facciamo, ma quanto è probabile che il nostro intervento eviti un rischio o generi un beneficio.

Ed è per questo che, dal punto di vista di Bostrom, investire nella sicurezza globale e nella riduzione dei rischi esistenziali è eticamente più importante, rispetto ad accelerare lo sviluppo tecnologico.

E se non ci interessano le vite future “ipotetiche”? La visione person-affecting

Non tutti condividono la premessa del longtermismo. C’è infatti una posizione etica alternativa, nota come person-affecting view, che sostiene il fatto che:

Un’azione è moralmente buona o cattiva solo se fa la differenza per persone reali — cioè persone che esistono già o che esisteranno sicuramente.

Significa che:

  • le persone che esistono già contano moralmente;

  • le persone che verranno sicuramente ad esistere (es. generazioni future previste) contano;

  • le persone che potrebbero esistere soltanto se noi compissimo un’azione specifica e straordinaria, non contano nella valutazione morale.

In questa prospettiva, le vite potenziali che potrebbero nascere solo in condizioni future non hanno lo stesso peso morale, ma anche adottando questa visione più restrittiva, la conclusione non cambia molto.

Sia la riduzione dei rischi esistenziali, e sia l’accelerazione del progresso tecnologico aumentano la probabilità che gli esseri umani attuali — o le generazioni immediatamente successive — possano beneficiare di:

  • Una qualità della vita molto più elevata,

  • Potenziali estensioni radicali della longevità,

  • Società più sicure e più prospere.

Per questo, chi adotta la visione person-affecting dovrebbe comunque bilanciare entrambe le strategie.

Una rivoluzione nella nostra visione del tempo

Il longtermismo invita a riconsiderare il nostro ruolo, dato che chiede a gran voce di guardare oltre il presente, e di riconoscere che la nostra civiltà potrebbe essere appena agli inizi.

Le nostre scelte — politiche, tecnologiche, morali — potrebbero riecheggiare per miliardi di anni, e forse, come suggerisce la comunità longtermista, abbiamo già il potere di influenzare il futuro.

Nata e cresciuta a Rosignano Solvay , appassionata da sempre per tutto quello che ruota intorno al benessere della persona.Biologa, diplomata all'I.T.I.S Mattei