Scienza e psicologia di una specie in corsa verso la propria rovina

Se l’intelligenza serve per capire in anticipo cosa può succedere e cambiare direzione quando serve, perché la specie più intelligente della terra continua a comportarsi come se le minacce al proprio futuro non esistessero?
Perché continuiamo a consumare e distruggere le risorse naturali da cui dipendiamo, e a migliorare tecnologie che potrebbero interrompere per sempre la nostra storia, come le armi nucleari o l’intelligenza artificiale?
La verità è che non c’è solo una causa che possa spiegare questo paradosso.
Perché il nostro cervello sottostima i rischi lenti e diffusi?
Siamo animali capaci di fare previsioni, tuttavia il nostro cervello è progettato soprattutto per reagire a minacce immediate e ben visibili. Questa caratteristica, che ci ha aiutato per millenni a sopravvivere, oggi ci rema totalmente contro.
Questo meccanismo psicologico ci porta inesorabilmente a sottovalutare problemi come il cambiamento climatico, il degrado dell’ambiente o altri rischi globali, fino a quando non arriviamo effettivamente a sperimentare sulla nostra pelle il punto di non ritorno.
1. Sconto iperbolico
Lo sconto iperbolico è un pregiudizio psicologico che spinge a dare molto più valore al presente rispetto al futuro. Non è questione di pigrizia o egoismo, bensì un comportamento naturale che gli scienziati hanno analizzato in molti studi. Quando dobbiamo scegliere tra un guadagno immediato e uno più grande ma lontano, tendiamo a scegliere la prima opzione, dato che ci appare la scelta più attraente.
Se colleghiamo questo concetto al clima, possiamo affermare che ci risulta più conveniente continuare a usare energia a basso costo, rispetto a investire in soluzioni sostenibili che porteranno benefici solo fra alcuni anni. Questo meccanismo può spingere anche società ben organizzate verso scelte che aumentano il rischio di disastri futuri.
2. Distanza psicologica
Se un problema è lontano nel tempo o nello spazio, lo percepiamo come poco urgente. Per tale motivo, anche se sappiamo che il clima sta cambiando, spesso non sentiamo l’urgenza ad agire subito. Non possiamo colmare questa distanza solo tramite la lettura di dati o grafici. La nostra natura ci spinge ad agire solo quando il problema lo percepiamo sulla nostra pelle.
3. Occorre viverla davvero sulla nostra pelle
Reagiamo molto di più a ciò che viviamo di persona rispetto a ciò che leggiamo nei media o ascoltiamo alla radio. Per esempio, un’alluvione nella nostra città ci spinge all’azione molto più di un rapporto scientifico globale. Questo crea un divario tra la realtà dei dati e la nostra reazione emotiva.
4. Negligenza della probabilità
Quando un pericolo ci spaventa, ci concentriamo sulla sua gravità ma non sulla probabilità che accada. Questo può avere due effetti opposti: a volte ci allarmiamo troppo per rischi piccoli, ma più spesso minimizziamo pericoli seri perché non riusciamo a valutare bene il rischio che accada. Senza istituzioni che ci aiutino a pesare correttamente i rischi, la società oscilla tra panico e indifferenza.
5. Intorpidimento psichico
Più grande è il problema, più distogliamo l’attenzione da essa. È un fenomeno noto con il nome di “psychic numbing”. Significa che la distruzione di un milione di ettari di foreste o l’estinzione di centinaia di specie non ci provoca una reazione emotiva proporzionata, anche se ne comprendiamo la gravità.
6. Diffusione della responsabilità
Quando tante persone sono coinvolte in un problema, ciascuno tende a pensare che debba essere qualcun altro ad agire. È il cosiddetto “effetto spettatore” su scala globale. Clima e perdita di biodiversità sono degli esempi perfetti. L’unico modo per combatterlo è definire chiaramente le responsabilità e dare a ognuno strumenti concreti per contribuire alla soluzione.
Perché anche le persone più intelligenti faticano a lavorare insieme?
Anche quando le persone capiscono che esiste un rischio serio, collaborare non è sempre facile. Questo succede perché entrano in gioco vari ostacoli, come regole poco chiare, conflitto di interessi e incertezze sul futuro. Gli studiosi hanno cercato di capire il perché, usando degli esperimenti chiamati “giochi pubblici”.
I giochi pubblici non sono altro che esperimenti usati da psicologi ed economisti per studiare come le persone collaborano per raggiungere un obiettivo comune.
In genere, ogni partecipante riceve delle risorse e deve decidere quanto contribuire a un “fondo” che, se raggiunge una soglia minima, fa vincere tutti.
Se la soglia non viene raggiunta, tutti perdono, anche chi ha contribuito di più.
Questi giochi simulano situazioni reali, come il cambiamento climatico o la gestione di risorse comuni, dove il successo dipende dallo sforzo collettivo.
Quando il traguardo è poco chiaro, la collaborazione vacilla
Immagina che tu e altre persone dobbiate raccogliere soldi per riparare un argine che sta per cedere. Se l’argine non viene riparato in tempo, il fiume esonderà e tutti subiranno danni, anche quelli che non hanno contribuito attivamente alla spesa.
Se tutti sanno con precisione quanti soldi servono, di solito riescono a organizzarsi e mettere insieme la cifra. Ma se nessuno sa esattamente quanto serve, la collaborazione crolla. Ognuno pensa: “Aspetto a dare, magari lo faranno gli altri” oppure “Forse non ce la faremo comunque, quindi è inutile che contribuisca”.
Questo è quello che gli scienziati hanno osservato in esperimenti controllati e che accade anche con i problemi reali come il cambiamento climatico: siccome non sappiamo il momento preciso in cui arriveremo al punto di non ritorno, tendiamo a rimandare l’azione… finché è troppo tardi.
Più è grande il divario, più è fragile la fiducia
Quando in un gruppo c’è chi parte con molte risorse e chi con poche poche, è più facile che l’obiettivo comune non venga raggiunto. Questo accade perché chi ha meno tende a sentirsi svantaggiato e di conseguenza contribuisce poco, mentre chi ha di più teme che gli altri approfittino del suo impegno.
Gli esperimenti mostrano però che c’è un rimedio efficace: occorre che i due gruppi parlino apertamente per far sì che chi ha più risorse sia disposto ad aiutare chi ne ha meno. Questo riduce i sospetti e aumenta la fiducia reciproca.
Nella politica reale, significa che anche i piani migliori per il clima o per l’ambiente rischiano di fallire se non includono regole di equità e impegni chiari. Ad esempio, se i paesi ricchi non aiutano economicamente quelli poveri nella transizione energetica, la cooperazione globale si blocca.
Il paradosso della soglia lontana
Come già accennato nel paragrafo precedente le persone tendono a rimandare l’azione quando il problema viene percepito come lontano. A questo si aggiunge lo sconto iperbolico, cioè la tendenza a dare più valore ai benefici immediati rispetto a quelli futuri.
Il risultato è un mix pericoloso: quello che dovremmo fare oggi per evitare problemi viene posticipato, e di conseguenza il punto critico si fa via via più vicino. Purtroppo non è mancanza di intelligenza, ma un meccanismo naturale della nostra mente che, quando applicato a questioni complesse come il clima, può causare conseguenze disastrose.
Dalla teoria ai dati del pianeta
Il modello scientifico dei confini planetari serve a valutare lo stato di salute dei grandi sistemi che mantengono in equilibrio la vita sulla Terra. Gli studi più recenti mostrano che abbiamo già superato in modo significativo sei dei nove limiti di sicurezza: il clima, la biodiversità, i cicli di azoto e fosforo, l’uso del suolo, le riserve di acqua dolce e l’introduzione di nuove sostanze chimiche.
In pratica, ci troviamo già fuori dalla “zona operativa sicura” per l’umanità. È un segnale chiaro che la cooperazione globale non sta funzionando dato che non siamo riusciti a mantenere sotto controllo quei confini entro i quali l’umanità può continuare a svilupparsi e a prosperare.
Efficienza che si morde la coda
Anche quando introduciamo innovazioni per ridurre l’impatto ambientale, il sistema economico può reagire in modo imprevisto. Se un miglioramento tecnologico rende l’uso dell’energia più efficiente, questa diventa anche più economica. Senza regole adeguate, il risultato può essere paradossale: invece di consumare meno, finiamo per consumare di più. Questo fenomeno è noto come effetto rimbalzo ed è stato confermato da numerosi studi economici.
Per evitarlo, l’efficienza deve essere accompagnata da misure che limitino la domanda complessiva, come tasse sull’energia, prezzi che riflettano l’impatto ambientale o standard obbligatori di riduzione dei consumi.
Quando la razionalità locale arma il mondo
In geopolitica, il dilemma della sicurezza spiega perché anche stati perfettamente razionali continuino ad accumulare armi sempre più potenti. Lo fanno per non sentirsi vulnerabili, ma così spingono anche gli altri ad armarsi.
Questo meccanismo alimenta la logica della deterrenza.
Finora l’equilibrio è stato sostenuto anche da regole non scritte, come il cosiddetto tabù nucleare, ovvero la convinzione condivisa che queste armi non debbano mai essere usate. Ma si tratta di un equilibrio fragile che può portare da un momento all’altro alla fine della specie umana.
Studi recenti hanno simulato gli effetti climatici e agricoli di una guerra nucleare, anche solo su scala regionale. I risultati sono drammatici: la fuliggine sollevata dalle esplosioni oscurerebbe parzialmente il sole, abbassando le temperature e riducendo i raccolti in modo drastico. Le conseguenze sarebbero carestie diffuse e instabilità globale.
In sintesi, la deterrenza può ridurre la probabilità che le armi nucleari vengano usate, ma non elimina il rischio di un evento catastrofico.
L’inerzia socio-tecnica – quando i sistemi prendono il sopravvento
Una volta che un’infrastruttura tecnologica viene avviata, tende a sviluppare una propria traiettoria, alimentata da investimenti, competenze specializzate e interessi consolidati. È il fenomeno dell’inerzia socio-tecnica. Anche se un’innovazione diventa rischiosa o obsoleta, smantellarla è costoso, politicamente impopolare e tecnicamente complesso.
Ecco alcuni esempi concreti di inerzia socio-tecnica:
Arsenali nucleari: la logica della deterrenza e i contratti industriali connessi alla produzione e manutenzione delle testate nucleari generano un ecosistema che resiste ai tagli, anche quando la minaccia dichiarata diminuisce.
Fossili e infrastrutture energetiche: centrali a carbone e gasdotti sono asset con cicli di vita decennali. Spegnerli prematuramente significa subire perdite economiche immediate, il che crea resistenze politiche e sociali anche davanti a prove scientifiche sul loro impatto climatico.
Intelligenza artificiale avanzata: Una volta iniziata la corsa tra aziende e nazioni per sviluppare sistemi sempre più potenti, diventa difficile rallentare, perché c’è sempre il timore di “rimanere indietro”. È il classico dilemma della sicurezza applicato alla tecnologia civile e militare.
La corsa all’intelligenza artificiale rappresenta il nuovo “Progetto Manhattan”?
Sono tre i fattori che rendono particolarmente difficile governare l’intelligenza artificiale, e sono:
Opacità tecnica: molti sistemi di IA – specialmente le reti neurali profonde – sono “scatole nere” anche per i loro creatori. Questo significa che è molto difficile prevedere i comportamenti che queste tecnologie avranno in futuro sulla società umana.
Accelerazione esponenziale: la potenza di calcolo, la disponibilità di dati e le innovazioni algoritmiche si combinano per accrescere le capacità a un ritmo senza precedenti.
Competizione internazionale e industriale: Occorre che gli stati decidano fin da subito di rallentare volontariamente l’avanzamento di questa nuova forma di tecnologia.
Gli studi sulla safety dell’IA sottolineano che anche sistemi non malevoli possono produrre risultati catastrofici se mal allineati con valori e obiettivi umani. Ciò include rischi indiretti, come l’uso di IA per ottimizzare arsenali, manipolare opinioni pubbliche o destabilizzare intere economie.
Feedback lenti e reazioni tardive
Ritardi tra causa ed effetto: le emissioni di CO₂ di oggi influenzeranno il clima per decenni. Allo stesso modo, le decisioni prese ora sullo sviluppo di IA o tecnologie militari plasmeranno il rischio per generazioni.
Assenza di segnali forti fino alla crisi: un ecosistema può sembrare stabile finché non supera una soglia critica, dopodiché il collasso è rapido. Lo stesso vale per la stabilità geopolitica, dove tensioni latenti possono esplodere in conflitti in poche settimane.
Difficoltà di percezione: senza un “momento Chernobyl” o un evento spettacolare, l’attenzione collettiva resta bassa, anche se i dati indicano che stiamo per superare il punto critico.
Questi ritardi sono come freni difettosi: possiamo girare lo sterzo, ma la macchina risponderà sempre troppo tardi rispetto alla curva che ci aspetta.
Come possiamo trasformare l’intelligenza in saggezza operativa?
La buona notizia è che la scienza non si limita a diagnosticare il problema, ma offre anche percorsi concreti per correggerlo.
Istituzioni resilienti: Occorre creare sistemi di governo “a più livelli”, in cui le decisioni vengano prese e coordinate da diversi centri di responsabilità. Questo approccio, chiamato governance policentrica, riduce la lentezza decisionale e aumenta la capacità di cooperare anche in situazioni complesse.
Accordi presi in anticipo: Bisogna stabilire impegni vincolanti quando la situazione è stabile, così da evitare rinvii o blocchi nel momento della crisi. È il cosiddetto principio del pre-commitment, che non significa altro che fissare le regole del gioco prima che la pressione renda più difficile decidere.
Simulazioni e scenari concreti: Bisogna utilizzare modelli predittivi e scenari narrativi per far vedere, in modo chiaro e realistico, cosa potrebbe accadere. Questo aiuta a superare la distanza psicologica e a percepire i rischi futuri come vicini e reali.
Tecnologie sicure fin dall’inizio: Per l’intelligenza artificiale e altre tecnologie è di fondamentale importanza investire nella sicurezza e nei sistemi di controllo già nella fase di sviluppo, invece di cercare di “mettere una pezza” quando il problema è ormai diffuso.
Nuove norme culturali: Così come il “tabù nucleare” ha contribuito a evitare l’uso delle armi atomiche, possiamo sviluppare nuove regole sociali che condannino lo sviluppo irresponsabile di tecnologie ad alto rischio.
Conclusione
Il paradosso dell’Homo sapiens è tutto qui! Abbiamo sviluppato una mente capace di calcolare traiettorie interplanetarie e di sequenziare il genoma… eppure inciampiamo quando dobbiamo applicare la stessa lucidità al nostro stesso futuro.
Tuttavia la storia ci mostra che possiamo anche imparare a fermarci. La messa al bando di armi chimiche, i trattati di non proliferazione nucleare, e il successo (parziale ma reale) di alcuni protocolli ambientali come quello di Montréal sono prove che la cooperazione globale è possibile quando la minaccia diventa chiara e condivisa. La sfida è quella di intervenire attivamente prima che la catastrofe si materializzi.
Se vogliamo sopravvivere e prosperare, dobbiamo fare un salto di specie: trasformare l’intelligenza in saggezza operativa. Per fare ciò dobbiamo ripensare alle nostre istituzioni e progettare le tecnologie con l’idea che possano realmente sfuggirci di mano, e quindi operare in modo di evitare ipotetiche catastrofi, poiché il successo di una specie non si misura solo in crescita economica o potenza militare, ma anche nella capacità di mantenere il pianeta abitabile per le generazioni future.
Forse quello che manca davvero alla società umana non è il coraggio di osare, ma la capacità di dire “basta” quando l’ingegno minaccia di oltrepassare la linea che separa la civiltà dalla rovina.
Post Comment
You must be logged in to post a comment.