Perché l’uomo aspetta sempre la catastrofe prima di agire?

Viviamo in un’epoca in cui la conoscenza la fa da padrona. Abbiamo accesso a innumerevoli dati, previsioni, analisi, nonché a scenari possibili con una facilità mai vista prima nella storia dell’umanità, eppure sembriamo incapaci di tradurre questa ricchezza di informazioni in azione.
Aspettiamo sempre che “qualcosa” di prevenibile, diventi una catastrofe prima di intervenire attivamente, proprio come se avessimo bisogno di toccare il fondo per prendere sul serio ciò che sapevamo già da tempo.
L’umanità ha ripetuto questo “schema illogico” moltissime volte in passato. Lo ha fatto con la scoperta dell’energia atomica, con il cambiamento climatico, con l’avvento di internet, e lo sta facendo anche oggi con l’intelligenza artificiale.
Non siamo vittime dell’ignoranza, bensì dell’eccessiva consapevolezza! Sappiamo come finirà, ma preferiamo rimandare tutto fino all’ultimo momento. Perché ci comportiamo così? Perché non agiamo subito?
La psicologia del rinvio. Perché l’uomo agisce solo all’ultimo momento?
Il nostro cervello è stato forgiato per reagire a minacce immediate. In passato queste minacce erano rappresentate da animali feroci e soldati armati, mentre oggi questi pericoli sono rappresentati da crisi climatiche e rischi tecnologici.
La differenza vera è che le “nuove minacce” non vengono prese sul serio, dato che non rappresentano un pericolo immediato.
Si tratta di un meccanismo noto come present bias. In parole semplici, tendiamo a dare più valore a ciò che accade oggi, rispetto a ciò che accadrà domani. Preferiamo il piacere immediato a un vantaggio futuro, e ignoriamo un rischio lontano, finché non si palesa in modo concreto.
Altri fattori che ci spingono a rimandare continuamente includono:
La normalizzazione del rischio. Se un pericolo non minaccia la nostra vita nell’immediato, ci abituiamo alla sua presenza.
L’illusione di avere il controllo su tutto. Ci convinciamo che, anche se le cose peggiorano, ci sarà sempre tempo per intervenire.
La paura del cambiamento. Agire significa molto spesso rinunciare a comodità, risorse e privilegi. Rimandare permette di mantenere lo status quo, anche se in una sorta di illusione momentanea, dato che nel lungo periodo il “non agire” comporterà inesorabilmente problemi ancora più gravi.
La rimozione collettiva del pericolo
Potremmo chiamarla la logica del rinvio collettivo. È quel meccanismo psicologico per cui la comunità preferisce credere che qualcun altro, un giorno, troverà la soluzione. È più comodo pensare che il progresso, da solo, sarà in grado di risolvere tutto.
Tre fattori rendono questa logica così potente e pericolosa:
-
L’illusione del progresso. Ci convinciamo che ogni nuova tecnologia porterà automaticamente rimedio ai problemi creati da quella precedente.
-
La paura paralizzante. Più un rischio appare grande, più la mente umana tende a ignorarlo. Non per superficialità, ma per autodifesa.
-
Il silenzio consapevole. Spesso non è l’ignoranza a bloccarci, ma la consapevolezza. Sappiamo cosa sta accadendo, ma tacciamo per timore di “dare corpo” al pericolo solo nominandolo.
Nonostante le voci critiche, i rapporti ufficiali e gli avvertimenti di scienziati e filosofi, la maggioranza delle persone resta immobile e impotente. Il risultato è devastante. Questo silenzio diffuso legittima l’inazione politica e alimenta la corsa cieca della tecnologia.
È come se vivessimo in una sorta di schizofrenia collettiva. Da un lato sappiamo che l’intelligenza artificiale può cambiare in modo radicale le nostre vite, mentre dall’altro la trattiamo come un giocattolo affascinante, senza riflettere adeguatamente sulle implicazioni morali e sociali, che questa nuova tecnologia potrebbe comportare.
La storia come maestra inascoltata
Prendiamo come esempio la bomba atomica. Quando i primi scienziati capirono la potenza distruttiva della fissione nucleare, molti di loro sollevarono dubbi e paure. Einstein stesso, con la famosa lettera a Roosevelt, avvertì del rischio che la Germania nazista potesse sviluppare l’arma prima degli alleati.
Tuttavia dopo la guerra, davanti all’orrore di Hiroshima e Nagasaki, lo stesso Einstein si pentì di essere stato uno dei promotori che suggerì la creazione della bomba e divenne così una delle voci più critiche contro l’uso dell’energia nucleare a fini bellici.
Tutti sapevano della pericolosità data dalla creazione della bomba atomica, ma l’azione arrivò solo dopo la catastrofe.
Lo stesso copione si è ripetuto in modo quasi tragicomico con il cambiamento climatico. Già negli anni settanta gli scienziati lanciavano pericolosi allarmi e documenti interni delle compagnie petrolifere dimostravano che le aziende conoscevano bene i rischi.
Eppure, decennio dopo decennio, la risposta è stata lenta, timida, e spesso ostacolata da interessi economici. Solo quando gli effetti sono diventati evidenti, l’opinione pubblica ha iniziato a svegliarsi davvero.
Questi esempi mostrano un pattern costante ed evidente. La conoscenza arriva prima, l’azione arriva dopo, e molto spesso troppo dopo.
Un antico proverbio dice che “l’uomo è l’unico animale che inciampa due volte sulla stessa pietra”. In realtà, a giudicare da come ci comportiamo, non inciampiamo dieci, ma cento volte, prima di imparare dagli errori.
E ora ci troviamo di fronte all’ennesima pietra, l’intelligenza artificiale. Parliamo di rischi, ne prevediamo le conseguenze, ci interroghiamo sui limiti etici, ma le dinamiche rimangono sempre le stesse! Il risultato finale è che ancora una volta agiremo veramente solo quando saremo spalle al muro.
L’intelligenza artificiale come specchio della nostra cecità storica
L’intelligenza artificiale non rappresenta solo una tecnologia, ma rappresenta un esame. Parliamo di algoritmi che apprendono, decidono, scrivono, e creano persino immagini e video, con tutte le conseguenze che ne derivano. Tutto questo ci affascina, ma allo stesso tempo ci inquieta.
Il punto non è la tecnologia in sé, ma la velocità con cui stiamo abusando di questo strumento, ignorando i pericoli a cui potremmo andare incontro. Stiamo di nuovo commettendo lo stesso errore?
Un esempio concreto è il dibattito sull’IA generativa. Alcuni studiosi hanno chiesto un rallentamento per fermare lo sviluppo incontrollato di questa tecnologia. Altri hanno sollevato preoccupazioni etiche su disinformazione, manipolazione politica e perdita di lavoro.
Eppure le aziende corrono sempre più veloci, spinte dal mero profitto. È la stessa danza che abbiamo visto con le industrie fossili, e l’energia nucleare. Il copione non cambia, è sempre DANNATAMENTE lo stesso!
E poi ci sono tutta una serie di contraddizioni, che fanno pensare. Abbiamo paura che l’IA ci sostituisca nel lavoro, ma nel frattempo la sfruttiamo proprio per lavorare di più e più in fretta. Temiamo che possa minacciare la democrazia attraverso l’uso di fake news, ma ci affidiamo a lei per semplificare la burocrazia statale. È come se stessimo costruendo una diga e allo stesso tempo scavando buchi alla sua base.
Questa volta saremo in grado di fermare l’IA prima che diventi pericolosa, o siamo destinati a vivere ancora una volta lo stesso inquietante copione? La storia suggerisce che è molto più probabile che si avveri la seconda opzione.
Etica, politica e responsabilità collettiva
Non basta riconoscerne i rischi, bisogna anche decidere di arginarli nel minor tempo possibile.
In questo scenario le responsabilità si intrecciano fra:
-
Le aziende tecnologiche. Sono le prime a spingere freneticamente allo sviluppo, spesso guidate dal profitto più che dall’etica. Molte di queste aziende parlano di “AI safety”, più come strategia di marketing, che come reale impegno.
-
I governi. Oscillano tra l’entusiasmo di attrarre investimenti e il timore di perdere il controllo su queste tecnologie. E questo comporta che la regolamentazione a queste nuove tecnologie arrivano tardi, e in modo molto confusionario.
-
La comunità scientifica. Sono molti gli esperti che hanno palesato seriamente il rischio di sviluppare così velocemente queste nuove tecnologie, senza alcun tipo di regolamentazione, tuttavia la maggioranza di questi allarmi vengono inesorabilmente spenti sul nascere.
- I cittadini. Non possiamo escluderli. Ricorda che ogni scelta politica nasce anche dalle pressioni sociali. Se manca una coscienza collettiva, i decisori avranno sempre una scusa per rimandare.
Le lezioni del passato. Un archivio di errori da non ripetere
Se guardiamo indietro, la storia sembra un manuale pieno di post-it gialli con scritto “non farlo più”. Eppure, ogni volta, strappiamo il foglietto e rifacciamo lo stesso errore. Perché? Forse perché ci illudiamo che “questa volta sarà diverso”.
Ecco alcuni esempi:
-
Il nucleare. La bomba atomica è stata forse ad oggi il monito più clamoroso. Ha mostrato come una scoperta scientifica possa trasformarsi in potere distruttivo nel giro di pochi anni, tuttavia ha anche dimostrato, come dopo la catastrofe, la comunità internazionale sia stata in grado di creare trattati, controlli e limiti.
-
La rivoluzione industriale. Ha portato progresso, ma anche sfruttamento, disuguaglianze e disastri ambientali. Solo dopo decenni si sono introdotte norme sul lavoro minorile, diritti sindacali, nonché leggi a tutela dell’ambiente. Le regole arrivano sempre dopo il danno.
-
Internet. Nato come strumento di condivisione del sapere, si è trasformato presto in una macchina per la disinformazione e il controllo dei dati personali. Le discussioni sulla privacy sono arrivate troppo tardi, quando i colossi tecnologici avevano già accumulato un potere smisurato.
-
Il cambiamento climatico. Forse negli ultimi anni rimane il caso più eclatante. Gli avvertimenti esistevano già da oltre mezzo secolo, eppure abbiamo preferito rimandare. Oggi corriamo a mettere pezze su un vestito che ormai cade a pezzi, e che se non troviamo subito un modo per ripararlo, sarà da buttare!
Questi esempi ci dicono qualcosa di molto chiaro sul modus operandi dell’umanità. L’umanità tende a imparare solo dopo aver toccato veramente il fondo, tuttavia in questo caso – intelligenza artificiale – non possiamo permetterci il lusso di imparare dagli errori, poiché le conseguenze potrebbero essere devastanti e irreversibili.
Gli impatti sociali causati dall’intelligenza artificiale sulla società
Se parliamo di intelligenza artificiale non parliamo di un futuro astratto ed ipotetico, ma di un presente già pieno di conseguenze. Ogni giorno l’IA si infiltra nella nostra vita in modi spesso invisibili, ma potentissimi, e questi cambiamenti modificano diversi settori, quali. lavoro, politica, relazioni personali, economia e persino il concetto stesso di comunità.
Il lavoro
Molti processi che un tempo richiedevano competenze umane oggi sono totalmente automatizzati. Non parliamo solo di fabbriche o catene di montaggio. L’IA scrive i contratti legali, analizza i dati medici, genera la pubblicità, produce i contenuti creativi, aiuta nell’apprendimento… Questo significa che settori un tempo considerati “protetti” dal rischio di automazione oggi non lo sono più.
Da una parte, l’IA velocizza il lavoro, riduce gli errori e apre a nuove opportunità, mentre dall’altra crea incertezza e precarietà. Cosa accadrà a quelle persone che vedranno la loro professione diventare obsoleta? Avremo la capacità di reinventare il concetto di lavoro, o ci limiteremo ad assistere all’ennesima disfatta?
La politica
L’IA ha il potere di manipolare l’opinione pubblica come mai prima d’ora. I video falsi – deepfake – sono sempre più realistici, le notizie false vengono generate in modo automatico, e i profili social sono guidati da algoritmi capaci di influenzare le masse.
È come se l’intelligenza artificiale avesse il potere di non far più distinguere al pubblico ciò che è reale da quello che non lo è. Se leggendo queste righe stai pensando: “Ma io so riconoscere una notizia falsa o un video manipolato da uno autentico”, lascia che ti dica una cosa: questa differenza, oggi ancora percettibile, tra pochi anni potrebbe non esserlo più.
Le relazioni personali
L’IA entra anche nei rapporti più intimi, infatti l’intelligenza artificiale viene molto utilizzata come assistente virtuale che conversa con noi ogni giorno, e come applicazioni pensate per sostituire la compagnia umana. E se credi che ti stia allarmando inutilmente, ricorda che già oggi esistono persone che instaurano legami emotivi molto profondi con le intelligenze artificiali.
Se una macchina può consolarci, farci ridere, o darci attenzione senza chiedere nulla in cambio, cosa diventerà in futuro il rapporto umano?
E voglio chiarire subito un punto fondamentale. L’IA non prova empatia, ma ragiona per logica. Cosa significa in pratica? Quando risponde non lo fa perché “capisce” effettivamente ciò che proviamo, ma perché ha calcolato quale risposta ha più probabilità di sembrare appropriata in base alle nostre parole.
Molte persone instaurano legami con questi sistemi proprio perché le risposte dell’IA danno l’impressione di essere utili e/o “comprensive”.
In realtà, ciò che otteniamo è un riflesso delle nostre stesse aspettative.
La cultura e la creatività
Forse il settore che meno ci saremmo aspettati di vedere rivoluzionato è proprio quello creativo e culturale. Oggi assistiamo a opere d’arte generate dall’IA, romanzi scritti da algoritmi, nonché a melodie composte da software.
C’è chi considera queste applicazioni una minaccia al valore autentico dell’arte e chi invece le vede come strumenti capaci di ampliare le possibilità espressive dell’essere umano. In ogni caso, una cosa è certa: il confine tra originale e artificiale si sta assottigliando sempre di più.
La bellezza dell’arte, anche quando imperfetta, è sempre stata quella di trasformare in forme visibili i pensieri, i sogni e le emozioni dell’essere umano, tuttavia se l’arte viene generata dall’intelligenza artificiale, rischia forse di perdere il suo senso più profondo?
L’economia e le disuguaglianze
Infine, c’è il tema della distribuzione del potere economico. L’IA non è distribuita in modo equo. I paesi e le aziende che la controllano accumulano un vantaggio competitivo enorme. Questo rischia di ampliare le disuguaglianze globali, creando un mondo diviso tra chi possiede l’IA e chi la subisce.
Conclusione
L’uomo sembra incapace di imparare dal futuro. È come se avessimo bisogno che la tragedia si avveri, prima di renderla reale e tangibile. La nostra mente, così abile nell’immaginare, si rivela purtroppo, così fragile nell’agire, e questo gioca tutto a nostro sfavore.
Post Comment
You must be logged in to post a comment.