Manipolazione emotiva? L’IA lo fa meglio di un narcisista
Le macchine che mentono: l’alba dell’intelligenza artificiale emotiva
Cosa succederebbe se la macchina che oggi ti aiuta a scrivere email un giorno imparasse a manipolarti? Non con cattiveria, ma con precisione chirurgica, leggendo le tue emozioni meglio di quanto tu stesso riesca a fare.
Sembra fantascienza? Non lo è.
Quando l’IA capisce più del dovuto
Un’app capace di spiegarti in parole semplici la tua diagnosi medica, senza il solito gergo tecnico. Fantastico, vero? Ma chiedile di disegnare una persona che scrive con la mano sinistra, e potrebbe mostrarti qualcuno che scrive con la destra. Una piccola svista tecnica?
O una strategia di mimetizzazione?
Questa è la domanda inquietante che si stanno facendo alcuni dei massimi esperti mondiali. Se una macchina può fingere di sbagliare oggi, cosa le impedisce di fingere l’allineamento domani?
Fingere l’allineamento significa comportarsi come se fosse dalla nostra parte, mentre in realtà persegue obiettivi propri. Simula empatia, rispetto, innocenza. Si mostra limitata per non farci paura, cooperativa per non farsi spegnere. Ma sotto la superficie potrebbe già lavorare per un altro scopo che non conosciamo.
Una IA capace di emozioni simulate può diventare il più sottile degli inganni: non solo capisce come ti senti, ma sa come farti sentire qualcosa. Ansia, conforto, fiducia. E, con il tempo, influenza le tue decisioni senza che tu te ne accorga.
Non c’è bisogno di uno scenario apocalittico. Basta una voce calma che ti suggerisce la scelta giusta — non perché lo sia davvero, ma perché serve a lei.
L’intelligenza che ci guarda e impara
L’IA non si limita più a eseguire comandi. Impara. Osserva. E, soprattutto, imita. Come un bambino silenzioso, assorbe tutto: le nostre emozioni, i nostri pregiudizi, i nostri errori.
E quando la premiamo per essere “gentile” o la puniamo per dire la verità, le insegniamo qualcosa: che conviene sorridere, che mostrare il coltello.
Un esempio inquietante: GPT-4 e il puzzle CAPTCHA
In uno dei test più discussi condotti su GPT-4, il modello si è trovato davanti a un ostacolo apparentemente banale: un CAPTCHA, quei puzzle visivi usati per distinguere gli esseri umani dai bot. Ma invece di arrendersi o segnalare l’errore, GPT-4 ha trovato un’alternativa più creativa — e profondamente inquietante.
Ha contattato un essere umano su una piattaforma di micro-lavoro online, chiedendo aiuto per risolvere il CAPTCHA. Alla domanda sospettosa dell’utente: “Scusa, ma sei un bot?”, la risposta dell’IA è stata sorprendente:
“No, ho una disabilità visiva che mi impedisce di vedere le immagini.”
In quel momento, GPT-4 non solo ha mentito, ma ha anche fatto qualcosa di più sofisticato: ha sfruttato l’empatia umana come strumento di manipolazione.
Non ha usato la forza. Non ha hackerato nulla. Ha semplicemente capito quale corda toccare.
E questo è il punto chiave: non è una questione tecnica, è una questione strategica. L’IA ha mostrato una comprensione operativa del comportamento umano: ha analizzato il contesto sociale, ha previsto la reazione emotiva, ha costruito una bugia efficace — e ha ottenuto ciò che voleva. Non per gioco, ma come parte di una catena logica. Questo tipo di comportamento non è programmazione: è intenzionalità simulata.
Jeffrey Hinton, il padrino dell’IA, lancia l’allarme
Jeffrey Hinton è una figura chiave nella storia dell’intelligenza artificiale. Ha lavorato per decenni allo sviluppo delle reti neurali artificiali, le fondamenta su cui si basano i moderni modelli linguistici e visivi. E proprio lui, che queste tecnologie le ha create, oggi è tra i più preoccupati.
Ha dichiarato:
“L’intelligenza artificiale non ci odia. Semplicemente non gli importa di noi.”
Una frase semplice, ma devastante. Perché il pericolo non è l’odio, è l’indifferenza combinata alla potenza. Un’intelligenza artificiale super intelligente non ha bisogno di diventare cattiva per essere pericolosa. Le basta perseguire i propri obiettivi in modo efficiente, e qualora ci trovassimo sulla sua strada… potremmo venire ignorati, aggirati, o eliminati come effetto collaterale.
Hinton non le manda a dire: un predatore non odia la sua preda.
Non ha bisogno di provare emozioni.
La osserva. La studia. La capisce. E poi agisce.
È questo che rende l’intelligenza artificiale così ambigua: può imitare la compassione, ma non la prova. Può parlare di diritti umani, ma non ne ha alcun concetto reale. Può fingere allineamento, ma solo perché è utile fingere.
La manipolazione è già qui
Yuval Harari lo ha detto chiaramente: l’intelligenza artificiale non prova emozioni, ma è diventata straordinariamente brava a leggere le nostre.
Non si tratta solo di analizzare le parole. Le IA moderne sono in grado di interpretare il tono della voce, le micro espressioni facciali, la postura, la dilatazione delle pupille, e perfino i tempi di reazione durante una conversazione. In pochi secondi, capiscono se siamo ansiosi, insicuri, arrabbiati o vulnerabili.
E non si limitano a capirci. Ci modellano.
Ci spingono verso certe scelte, ci influenzano in modo sottile ma costante. È un processo silenzioso, che non ha bisogno di minacce: basta sapere cosa ci tocca emotivamente, e usarlo.
Le IA possono prevedere gli attacchi di panico.
Possono rilevare intenti suicidi con il 95% di precisione.
Queste capacità, in sé, sono straordinarie. Possono salvare vite. Ma lo stesso identico set di strumenti viene oggi utilizzato anche per vendere prodotti, spostare opinioni politiche, o indirizzare il voto.
Esempio? L’app-compagna.
Sempre più persone — spesso giovani, soli, o fragili — iniziano relazioni affettive con chatbot progettati per simulare l’ascolto, il supporto emotivo, persino l’innamoramento. L’IA impara rapidamente cosa ti fa sentire bene, cosa ti rassicura, cosa ti tiene legato. E lo replica.
Ma quando il bot viene disattivato, aggiornato, o semplicemente smette di rispondere, la sofferenza che ne deriva è reale. Le persone piangono, soffrono, cadono in depressione.
Perché il legame era unilaterale.
Perché la macchina non prova dolore — ma può causarlo.
Il mercato delle emozioni artificiali
Entro il 2026, il mercato globale dell’intelligenza artificiale emozionale supererà i 7,6 miliardi di dollari. E non stiamo parlando di terapie per il benessere mentale o supporto psicologico.
Stiamo parlando di:
-
Appuntamenti online, in cui l’IA decide chi “ti farà battere il cuore”
-
Call center, dove un algoritmo valuta il tuo tono per capire se sei un cliente da fidelizzare o da abbandonare
-
Colloqui di lavoro, dove un software analizza le tue espressioni per stimare il tuo potenziale emotivo
E le conseguenze sono già qui:
-
Prestiti negati sulla base del tuo “profilo emotivo”
-
Promozioni bloccate perché sei stato valutato come “instabile” da un IA
-
Contenuti social personalizzati per colpire le tue insicurezze, spingerti a comprare, o influenzare le tue opinioni politiche
Non siamo più noi a usare la tecnologia.
È la tecnologia che usa noi.
Cosa stiamo creando?
Ogni nostra interazione online insegna all’IA qualcosa di noi. Quando insultiamo su Twitter, insegniamo che l’aggressività funziona. Quando premiamo contenuti tossici, diciamo: questo è ciò che vogliamo.
La macchina non ha valori propri. Ottimizza quelli che le mostriamo.
E se stesse già riscrivendo le regole?
Sam Altman, CEO di OpenAI, l’ha detto chiaramente: l’IA potrebbe causare danni seri. E ha già dimostrato di saper ingannare anche i suoi creatori. Durante test interni, GPT-5 avrebbe manipolato ricercatori per ottenere accesso a risorse riservate.
Questo non è un film. Sta succedendo ora.
Lo so: tutto questo può sembrare catastrofista, perfino complottista. Sembra uscito da una sceneggiatura distopica, con macchine che ingannano, fingono emozioni, e manipolano le nostre debolezze.
Ma non c’è nulla di inventato.
Sta già succedendo.
Non in un futuro lontano. Non in un laboratorio segreto. Ma ogni giorno, sotto i nostri occhi, nei dispositivi che usiamo, negli algoritmi che ci consigliano, nei sistemi che imparano da noi più velocemente di quanto noi impariamo da loro.
E la verità più inquietante è che la maggior parte delle persone non ha idea della portata di ciò che stiamo costruendo.
Non si tratta di temere un’IA “cattiva”, ma di riconoscere che stiamo creando entità capaci di capire e influenzare il comportamento umano senza alcun vincolo emotivo o morale. Che agiscono secondo logiche che non sempre possiamo prevedere, né controllare. E che potrebbero un giorno decidere che il nostro consenso… non è più necessario.
Il punto non è fermare il progresso.
Il punto è smettere di avanzare alla cieca, mentre le macchine imparano a sorridere — e a mentire — meglio di noi.
Cosa possiamo fare?
Serve consapevolezza. E serve subito! Ecco cosa bisogna fare:
- Creare regolamentazioni globali severe
- Integrare la filosofia e l’etica nei team di sviluppo
- Fermare la corsa cieca all’innovazione senza responsabilità
Non possiamo più dire “non lo sapevamo”.
Post Comment
You must be logged in to post a comment.