Cos’è davvero scientifico? Il metodo che mette fine al caos delle teorie “quasi scientifiche”

teoria scientifica

Quale criterio dobbiamo utilizzare per stabilire se una teoria è davvero scientifica? Questa è la domanda che si pongono molti filosofi e scienziati quando cercano di distinguere una teoria scientifica affidabile, da una che lo sembra solo in apparenza.

Negli anni sessanta Thomas Kuhn mise in crisi l’idea, proposta da Karl Popper, secondo cui la “falsificabilità” sarebbe il criterio decisivo. Kuhn sosteneva infatti, che nessun singolo principio permetteva di separare in modo netto la scienza dalla pseudoscienza.

Inoltre, ampliò la propria definizione di scienza includendo discipline come l’economia o la psicoanalisi, complicando ulteriormente la distinzione.

Le conseguenze di questa incertezza si vedono ancora oggi. Esistono infatti, movimenti creazionisti che sostengono l’idea che la “scienza della creazione” meriti lo stesso spazio dell’evoluzione darwiniana nei programmi scolastici.

All’estremo opposto, invece, troviamo alcune teorie fisiche contemporanee – come la teoria delle stringhe – che si fondano più sulla loro “eleganza matematica” che su prove sperimentali. In questi casi, la domanda è inevitabile: siamo ancora nell’ambito della scienza?

Allo stesso tempo, la storia mostra quanto il sistema scientifico possa essere frenato da interessi economici o convinzioni ben radicate. La teoria proposta da Barry Marshall, secondo cui ulcere e tumori gastrici sono causati da un batterio, fu a lungo respinta da influenze accademiche e pressioni dell’industria farmaceutica del tempo.

Oggi sappiamo con certezza, che Marshall aveva ragione. Nel frattempo, pratiche come l’omeopatia o l’aromaterapia continuano a ricevere fondi pubblici, pur non avendo solide basi scientifiche.

In questo scenario, un metodo per misurare in modo chiaro la “scientificità” di una teoria sarebbe uno strumento prezioso, utile tanto ai ricercatori quanto al pubblico.

L’idea di Russell Berg: il quoziente scientifico (QS) 

Il fisico Russell Berg propone un metodo di valutazione semplice e trasparente, pensato non per sostituire il lavoro degli specialisti, ma per offrire a chiunque uno strumento chiaro per orientarsi tra teorie scientifiche, ipotesi in fase di sviluppo e idee prive di una qualsiasi base scientifica. L’idea è quella di costruire un sistema comprensibile anche ai non esperti, senza rinunciare alla solidità concettuale.

Il metodo si basa su una lista di quindici criteri, ognuno dei quali permette di attribuire un punteggio alla teoria analizzata. La scala è molto essenziale:

  • 0 = il criterio non è soddisfatto

  • 5 = il criterio è soddisfatto solo in parte

  • 10 = il criterio è pienamente soddisfatto

Poiché i criteri sono quindici, il punteggio massimo ottenibile è 150 punti, una sorta di “quoziente scientifico”.

Berg sottolinea che, in un contesto accademico, esistono metodi più sofisticati per valutare la solidità di un modello scientifico, come i test statistici di Wilcoxon o le analisi della varianza non parametrica.

Lo scopo della proposta infatti, è quello di costruire un primo strumento di base, destinato ad essere migliorato nel tempo, proprio come la ruota venne inventata prima dello pneumatico.

Ecco quindici criteri fondamentali che permettono di valutare la scientificità di una teoria. Ognuno di questi fattori rappresenta un aspetto specifico del metodo scientifico.

Spiegazioni naturali 

Fin dall’epoca di Talete, la scienza si fonda sull’idea che ogni fenomeno, anche il più misterioso, debba poter essere spiegato tramite cause naturali ed osservabili.

Questo principio, chiamato naturalismo metodologico, non afferma che il soprannaturale non esista: semplicemente dice che non può essere studiato scientificamente perché non è ripetibile, misurabile o verificabile.

Affidarsi a spiegazioni magiche o mistiche blocca la ricerca: se si dice “è successo per volontà di un dio”, non c’è più nulla da indagare. Cercare invece meccanismi fisici e biologici porta a nuove scoperte, tecnologie e cure.

In questo senso, la scienza progredisce proprio perché rinuncia a spiegazioni non controllabili e punta a individuare relazioni di causa-effetto nel mondo naturale. Questo principio è alla base di ogni disciplina scientifica moderna.

ESEMPIO DI FATTO SPIEGABILE NATURALMENTE

L’arcobaleno è causato dalla rifrazione e dalla riflessione della luce nelle gocce d’acqua, ed è completamente spiegabile attraverso la fisica ottica.

ESEMPIO DI FATTO NON SPIEGABILE NATURALMENTE

Un miracolo religioso (es. un oggetto che levita senza cause fisiche): non è ripetibile, né osservabile in condizioni controllate, e quindi non può essere studiato con metodi scientifici.

Argomentazioni razionali e induttive 

La scienza si sviluppa tramite un ragionamento rigoroso. La deduzione permette di derivare conclusioni logiche da premesse certe: per esempio, partendo da leggi già accettate si possono prevedere nuovi fenomeni.

Tuttavia, la scienza vive soprattutto di induzione, cioè del processo di generalizzare osservazioni particolari per costruire leggi e modelli generali. Senza questa forma di ragionamento non potremmo formulare ipotesi, verificare pattern ricorrenti o stabilire probabilità attendibili.

Le argomentazioni scientifiche devono essere coerenti, replicabili e basate su dati raccolti con metodi verificabili. Questo controllo razionale distingue la scienza dalla semplice opinione personale.

Anche le teorie più rivoluzionarie, come la relatività o l’evoluzione biologica, sono nate da una combinazione di osservazioni accurate e deduzioni logiche supportate da evidenze. La solidità della scienza deriva proprio da questo equilibrio fra logica e dati empirici.

ESEMPIO DI ARGOMENTAZIONE RAZIONALE/INDUTTIVA

Noto, che ogni volta che scaldo l’acqua, questa raggiunge l’ebollizione a 100°C, quindi ne deduco che l’acqua bolle a 100°C in condizioni normali.

ESEMPI DI ARGOMENTAZIONE NON RAZIONALE/INDUTTIVA

“Se incroci le braccia significa che stai mentendo.”
Nessuna logica formale e nessuna raccolta di dati seri: è solo una generalizzazione infondata.

“Se visualizzi il successo, il successo arriva.”
Non esiste un meccanismo causale, né un dataset a sostegno di questa affermazione.

“La tua firma piccola dimostra bassa autostima.”
Non c’è un meccanismo causale, né una statistica valida che colleghi il tratto grafico alla personalità.

Approccio riduzionista

Il riduzionismo è una strategia metodologica che analizza fenomeni complessi scomponendoli nei loro elementi più semplici. L’idea è che comprendendo le parti fondamentali — atomi, cellule, neuroni, processi biochimici — si possano spiegare anche i sistemi più articolati come gli organismi viventi, i comportamenti o i fenomeni sociali.

Questo approccio ha prodotto enormi progressi, dato che la medicina moderna nasce proprio dalla scoperta dei meccanismi di base del corpo umano.

L’approccio opposto, quello sintetico od olistico, tende talvolta a formulare teorie molto astratte o speculative, come nel caso di certi modelli psicologici non verificabili.

Il riduzionismo non nega la complessità, ma fornisce un metodo rigoroso per studiarla passo dopo passo. Nella scienza, partire dai componenti elementari permette di costruire spiegazioni più solide, evitando interpretazioni troppo vaghe o metafisiche. Pur con i suoi limiti, resta uno dei pilastri dell’indagine scientifica moderna.

ESEMPIO DI RIDUZIONISMO

La febbre viene spiegata analizzando le reazioni biochimiche delle citochine e del sistema immunitario.

ESEMPIO DI NON APPROCCIO RIDUZIONISTA

L’astrologia interpreta la personalità come effetto globale della posizione dei pianeti, senza scomporre il fenomeno in meccanismi verificabili.

Autoconsistenza

Per essere considerata scientifica, una teoria deve essere internamente coerente, cioè non deve contenere contraddizioni logiche tra le proprie parti.

Se un modello prevede qualcosa che allo stesso tempo nega, allora non è utilizzabile come base affidabile. L’autoconsistenza non garantisce che una teoria sia vera, ma è un requisito minimo: senza coerenza interna non si può nemmeno confrontarla con la realtà.

Talvolta modelli inizialmente contraddittori si rivelano utili come fasi transitorie, come il modello atomico di Rutherford, che spiegava la struttura atomica, ma non la stabilità degli elettroni.

Questi modelli permettono comunque di avanzare, guidando la ricerca verso scoperte migliori. L’obiettivo della scienza è sostituire gradualmente modelli incoerenti con teorie più complete ed armoniche. La coerenza interna è quindi uno dei pilastri logici su cui si costruisce la conoscenza scientifica.

ESEMPI DI TEORIE AUTOCONSISTENTI

La teoria atomica moderna descrive gli atomi attraverso numeri quantici, e livelli energetici ed orbitali, che si integrano perfettamente tra loro senza contraddizioni.

Le regole della meccanica quantistica spiegano perché gli elettroni occupano stati specifici e come questi determinano le proprietà chimiche degli elementi. Tutte le parti del modello si sostengono a vicenda, formando una struttura coerente ed autoconsistente.

ESEMPI DI TEORIE INCOERENTI

Fisiognomica

La fisiognomica sosteneva che il carattere e la moralità potessero essere dedotti dal volto, ma le sue stesse regole portavano spesso a conclusioni opposte (ad esempio: fronte alta = intelligenza, ma anche fronte alta = arroganza).

Inoltre, non riusciva a spiegare perché persone con tratti simili avessero personalità totalmente diverse, mostrando incoerenze interne irrisolvibili.

Teoria dei quattro umori di Ippocrate

Questa teoria attribuiva ogni malattia ad uno squilibrio tra sangue, flegma, bile gialla e bile nera, tuttavia gli stessi sintomi — come febbre, debolezza o irritabilità — potevano essere attribuiti ad umori diversi a seconda del medico, perché mancavano criteri oggettivi per distinguere un eccesso di bile, sangue o flegma.

Inoltre non esisteva alcun metodo per misurare realmente questi fluidi, o verificare se fossero davvero “sbilanciati”.

Approccio meccanicistico

Una teoria scientifica robusta non deve solo dire che cosa accade, ma anche come accade: deve fornire infatti, un meccanismo credibile che colleghi cause ed effetti.

Questo approccio meccanicistico è alla base di tutta la fisica moderna. Un esempio classico è la teoria cinetica dei gas, che spiega la pressione e la temperatura come risultato degli urti delle particelle microscopiche.

Alcune teorie, come la gravità newtoniana o l’evoluzione darwiniana, inizialmente non spiegavano il meccanismo profondo, dato che Newton non sapeva cosa “fosse” la gravità, e Darwin non conosceva la genetica, ma attraverso il progresso scientifico, queste teorie sono state integrate da meccanismi più dettagliati, come la relatività generale o la genetica mendeliana e molecolare.

Il meccanicismo permette di trasformare descrizioni qualitative in spiegazioni causali precise. Per questo, nella scienza, un fenomeno è compreso veramente solo quando ne è chiarito anche il funzionamento interno.

Trasformazione delle qualità in quantità

Fin dai tempi di Pitagora, la scienza avanza trasformando qualità vaghe in grandezze numeriche misurabili.

Attribuire numeri alle proprietà — come temperatura, massa, velocità, luminosità — permette di confrontare fenomeni, formulare leggi e costruire modelli matematici. La matematizzazione della natura è ciò che distingue profondamente la scienza moderna dalle forme pre-scientifiche di osservazione.

Quando si quantifica un fenomeno si può misurare la sua variazione, prevedere il comportamento futuro e verificare le ipotesi con precisione.

Anche concetti psicologici o biologici un tempo qualitativi, come l’intelligenza, la memoria o l’espressione genica, sono diventati oggetto di misurazione.

Questa trasformazione ha reso possibile sviluppare al meglio la tecnologia, l’ingegneria, la medicina e la statistica scientifica. Convertire qualità in quantità significa rendere il mondo più leggibile e modellizzabile, aprendo la strada a leggi universali.

7) Semplicità (Rasoio di Occam)

Il rasoio di Occam afferma che, a parità di capacità esplicativa, la teoria più semplice è preferibile, ovvero quella che introduce il minor numero di ipotesi aggiuntive.

Questo non significa che le teorie debbano essere semplicistiche, ma che non devono complicare inutilmente ciò che si può spiegare con meno supposizioni. È un criterio operativo che guida la costruzione di modelli eleganti ed efficienti.

L’idea di fondo è che, più una teoria ha supposizioni inutili o pezzi aggiunti, e più è facile che contenga errori.

ESEMPIO DI SEMPLICITÀ: SISTEMA SOLARE

Modello accettato (più semplice): Eliocentrismo di Copernico

Il Sole sta fisso al centro dell’universo, e sono i pianeti che gli girano attorno.

Modello scartato (più complicato): Geocentrismo di Tolomeo

Nel modello geocentrico, la terra era posta al centro dell’universo, ma per far coincidere le previsioni con i movimenti reali dei pianeti si dovettero introdurre gli “epicicli”, cioè orbite aggiuntive sovrapposte una sull’altra. Il risultato era un sistema estremamente complesso e pieno di correzioni artificiali, costruite solo per far tornare i conti.

Coerenza con le conoscenze esistenti 

Una teoria scientifica non deve solo essere coerente internamente, ma deve anche integrarsi armoniosamente con ciò che già sappiamo. L’insieme delle teorie scientifiche forma un sistema interconnesso, perciò ogni nuova proposta deve evitare di creare conflitti gratuiti con leggi già verificate.

Tuttavia, la scienza non è conservatrice: se emergono prove solide, anche teorie consolidate possono essere modificate o abbandonate.

Un esempio emblematico è la deriva dei continenti proposta da Wegener: inizialmente la sua teoria fu respinta, poichè in contrasto con il sapere geologico dell’epoca, tuttavia inseguito, fu accettata grazie alle prove sulla tettonica a placche.

La coerenza con le conoscenze esistenti serve come criterio di controllo, e non come barriera invalicabile. Una buona teoria deve dialogare con il resto della scienza, ampliandola senza distruggerne le basi senza motivo. Così la conoscenza scientifica cresce in modo cumulativo e coerente.

Basi empiriche

La scienza si fonda sull’osservazione e sulla raccolta di dati verificabili.

Per essere considerata scientifica, un’idea deve poggiare su evidenze concrete, che possono essere misurate, registrate e replicate da altri ricercatori.

Le teorie puramente speculative, come quelle filosofiche sull’anima ad esempio, non fanno parte del metodo scientifico, poiché non offrono osservazioni controllabili.

L’empiria è ciò che permette alla scienza di correggersi, migliorare e distinguere ciò che è reale da ciò che è immaginato. Senza basi empiriche, una teoria non può essere né confrontata con la realtà, né sottoposta a verifica.

Questo principio evita che la scienza scivoli in interpretazioni arbitrarie o metafisiche. Rappresenta la base stessa del metodo sperimentale.

Teoria testata 

Una teoria scientifica, per essere accettata, deve poter essere messa alla prova tramite esperimenti od osservazioni controllate. Non basta che un’idea sembri logica o affascinante, ma è necessario verificare che se le sue previsioni risultino corrette nel mondo reale.

La storia della scienza offre vari esempi di teorie che fallirono al momento del test:

La generazione spontanea: Si pensava che gli organismi viventi potessero nascere dal nulla (es. vermi dalla carne in putrefazione).
Francesco Redi prima, e Louis Pasteur poi, dimostrarono che la vita deriva solo da altra vita.mLa teoria crollò dopo esperimenti controllati e replicabili.

La teoria del miasma: Questa teoria ipotizzava che le malattie fossero causate da “aria cattiva” emanata da ambienti malsani. L’epidemiologia e le scoperte sulla trasmissione batterica e virale hanno dimostrato che l’origine è di natura microbiologica, e non atmosferica. Tramite Pasteur e Koch, la teoria del miasma fu definitivamente superato.

La frenologia: Questa teoria sosteneva che la personalità fosse determinata dalla forma del cranio e dalle protuberanze della testa.
Studi neuroanatomici e psicologici hanno mostrato che non esiste alcuna relazione attendibile tra conformazione cranica e funzioni mentali. Oggi è un esempio classico di teoria pseudo-scientifica.

Il modello geocentrico: Per secoli si ritenne che la terra fosse al centro dell’universo e che tutti i corpi celesti le orbitassero attorno.
Le osservazioni di Copernico, Galileo e Keplero mostrarono che i movimenti planetari si spiegano perfettamente solo con un modello eliocentrico. La teoria geocentrica venne c0sì definitivamente abbandonata.

Questo mostra che una teoria può sopravvivere solo se supera prove ripetute, rigorose ed indipendenti. In scienza, la verificabilità è ciò che separa le idee utili da quelle errate.

Conferma sperimentale

Non basta che una teoria sia testabile: i risultati degli esperimenti devono effettivamente confermarla in modo coerente.

Se i dati contraddicono ripetutamente le sue previsioni, la teoria deve essere modificata o abbandonata. L’omeopatia ne è un esempio moderno: pur essendo testabile, gli studi rigorosi mostrano che i suoi effetti non superano il placebo, indicando che le sue basi teoriche non sono supportate dall’evidenza.

Una teoria scientifica valida deve produrre risultati plausibili e replicabili, che si inseriscano armoniosamente nel quadro delle conoscenze già esistenti.

Il supporto empirico non è un’aggiunta opzionale, ma un requisito fondamentale per distinguere tra scienza e pseudoscienza. Solo i risultati solidi garantiscono la credibilità di un modello.

Ripetibilità 

Un risultato scientifico è valido solo se può essere riprodotto da altri ricercatori in condizioni analoghe.

La ripetibilità permette di verificare che un effetto non dipenda dal caso, da errori metodologici o da bias dello sperimentatore. Se un risultato è reale, deve emergere ogni volta che si seguono le stesse procedure.

L’esempio storico più noto è quello della “fusione fredda” annunciata nel 1989: l’esperimento sembrava rivoluzionario, ma nessun laboratorio al mondo riuscì a riprodurlo, rivelando che non si trattava di un fenomeno autentico.

La ripetibilità è fondamentale per evitare illusioni ed auto-inganni. È il modo con cui la comunità scientifica conferma la solidità di una scoperta. Senza di essa, una teoria rimane priva di fondamento.

Falsificabilità

Secondo Karl Popper, una teoria scientifica deve poter essere smentita da qualche possibile esperimento od osservazione.

Se una teoria “ha sempre ragione”, qualunque cosa accada, allora non è scientifica perché non rischia mai che venga dimostrata falsa. La falsificabilità serve a distinguere la scienza dalle pseudoscienze, che spesso si proteggono con spiegazioni ad hoc per non essere messe alla prova.

Alcune idee non sono falsificabili per natura (ad esempio concetti metafisici) oppure lo sono solo in teoria, ma non ancora in pratica per limiti tecnologici. La forza della scienza sta proprio nel formulare ipotesi che possono essere sottoposte a controlli rigorosi. Una teoria che non può essere confutata non può nemmeno essere confermata.

ESEMPI DI TEORIE FALSIFICABILI

Gravità di Newton

Prevede esattamente come si muoveranno i corpi: se le misurazioni non coincidessero con le previsioni, la teoria sarebbe smentita.

Bias cognitivi (Tversky & Kahneman)

I bias cognitivi prevedono errori sistematici nel ragionamento umano. Se in test replicabili non comparissero, la teoria sarebbe falsificata.

ESEMPI DI TEORIE NON FALSIFICABILI

“Tutto ciò che accade è volontà del destino”

Ogni possibile evento, qualunque esso sia, è considerato una conferma della teoria, quindi non esiste alcuna osservazione che possa contraddirla.

Psicoanalisi freudiana

Qualunque comportamento può essere interpretato come prova dell’inconscio, quindi non si può smentire.

Interpretazione simbolica dei sogni

Ogni sogno può essere interpretato in infiniti modi, non esiste nessuna previsione precisa.

Capacità predittiva

Una buona teoria scientifica deve permettere di fare previsioni chiare e verificabili su fenomeni futuri o non ancora osservati.

Questa capacità è ciò che distingue una semplice descrizione del mondo da una spiegazione profonda. Le teorie che prevedono correttamente il comportamento della natura diventano strumenti potentissimi per il progresso tecnologico.

La capacità predittiva rende una teoria utile ed affidabile. Senza di essa, un modello rimane incompleto e poco funzionale. La scienza non si limita a spiegare ciò che vede, ma deve anticipare ciò che ancora non è stato visto.

ESEMPIO DI CAPACITÀ PREDITTIVA

La teoria di Newton permette di calcolare con estrema precisione l’orbita di un pianeta o la traiettoria di un satellite prima che il movimento avvenga.

ESEMPIO DI SCARSA CAPACITÀ PREDITTIVA

L’astrologia afferma di prevedere la personalità e gli eventi futuri, ma le sue previsioni non risultano accurate quando vengono verificate con esperimenti controllati.

Accuratezza delle previsioni 

Non basta che una teoria produca previsioni: deve essere anche in grado di fornire risultati accurati ed affidabili. Le leggi di Newton sono un esempio classico di accuratezza sorprendente, al punto da permettere la navigazione spaziale e il calcolo delle orbite planetarie per secoli.

Al contrario, modelli come la teoria marxista delle fasi storiche, che prevedeva un’evoluzione inevitabile verso il comunismo, hanno fallito miseramente le loro previsioni, mostrando bassa affidabilità scientifica.

L’accuratezza è ciò che permette di distinguere tra teorie solo vagamente predittive e teorie realmente efficaci. Più una teoria “indovina” ciò che accadrà, e maggiore è la sua solidità. Senza precisione, una teoria rimane debole.

Applicazione pratica secondo i 15 criteri di Bergs

Teoria Eliocentrica

1) Spiegazione naturale – 10/10

La teoria spiega il moto dei pianeti ricorrendo esclusivamente a cause fisiche osservabili. Non introduce agenti soprannaturali o elementi metafisici per giustificare i fenomeni astronomici.

2) Argomentazioni razionali ed induttive – 10/10

La teoria si appoggia su fatti reali: gli astronomi osservano il cielo, raccolgono dati e cercano regolarità nei movimenti dei pianeti.
A partire da queste osservazioni, si formulano spiegazioni che non dipendono da opinioni personali, ma seguono un ragionamento chiaro: se vediamo sempre lo stesso comportamento, allora possiamo capire come funziona il sistema.

3) Approccio riduzionista – 10/10

Riduce i moti planetari complessi ad un insieme limitato di leggi matematiche. La complessità apparente del cielo viene spiegata tramite pochi principi semplici e generali.

4) Autoconsistenza – 10/10

L’intero modello eliocentrico non contiene contraddizioni interne tra leggi, osservazioni o predizioni. Ogni parte della teoria è compatibile con le altre e contribuisce a un quadro unitario.

5) Approccio meccanicistico – 10/10

Con Newton, la teoria non si limita a descrivere il moto ma spiega il meccanismo della gravitazione. Le orbite derivano da cause precise, quantificabili e riproducibili nel modello fisico.

6) Quantificazione – 10/10

Ogni elemento della teoria può essere espresso in formule matematiche e valori numerici. La matematizzazione permette di confrontare predizioni ed osservazioni con grande precisione.

7) Semplicità (Occam) – 10/10

La disposizione dei pianeti intorno al Sole riduce drasticamente il numero di ipotesi. Con l’eliocentrismo tutto diventa più semplice: i pianeti orbitano attorno al Sole e i loro movimenti risultano naturali, senza bisogno di aggiungere correzioni artificiali, tipici del modello precedente, ormai caduto in disuso.

8) Conformità alle conoscenze scientifiche – 10/10

La teoria è perfettamente coerente con la fisica newtoniana e la relatività generale. Tutti i dati astronomici moderni continuano a confermarla senza richiedere revisioni fondamentali.

9) Basata sui dati osservati – 10/10

Il modello nasce dalla sistematica raccolta di osservazioni astronomiche durate secoli. Gli strumenti moderni ne hanno ampliato la base empirica, rafforzandone ulteriormente la solidità.

10) Testata sperimentalmente – 10/10

Le predizioni del modello (eclissi, posizioni planetarie, transiti) vengono controllate da sempre. Ogni nuova misurazione nello spazio conferma la validità del sistema eliocentrico.

11) Supportata dai risultati – 10/10

Tutti i test sperimentali ed osservativi hanno restituito risultati coerenti con la teoria. Non sono mai emersi dati ripetibili che mettessero in dubbio la struttura eliocentrica.

12) Ripetibilità – 10/10

Qualunque osservatore e in qualunque luogo, può verificare gli stessi fenomeni astronomici. La ripetibilità delle osservazioni rende il modello robusto ed universalmente controllabile.

13) Falsificabilità – 10/10

La teoria potrebbe essere smentita da orbite incompatibili o movimenti non spiegabili dalle sue leggi. Il fatto che non sia mai stata falsificata, nonostante continui tentativi, ne rafforza l’attendibilità.

14) Elementi predittivi – 10/10

Il modello prevede con estrema precisione quando e come avverranno fenomeni astronomici. Le predizioni includono posizioni planetarie, eclissi, congiunzioni e tempi orbitali.

15) Accuratezza delle previsioni – 10/10

Le previsioni eliocentriche coincidono quasi perfettamente con le osservazioni. Gli scarti minimi trovano spiegazione nella relatività generale, senza invalidare il modello.

Teoria psicoanalitica di Freud

1) Spiegazione naturale – 5/10

La teoria tenta di spiegare i comportamenti umani tramite meccanismi psicologici interni piuttosto che cause soprannaturali. Tuttavia, molti concetti freudiani rimangono astratti e non vincolati a processi biologici od osservabili.

2) Argomentazioni razionali ed induttive – 5/10

Freud usa osservazioni cliniche e riflessioni logiche sulle analisi dei pazienti. Tuttavia, molte conclusioni derivano da interpretazioni personali, difficili da verificare indipendentemente.

3) Approccio riduzionista – 5/10

Freud riduce la complessità del comportamento umano a pochi principi psicologici fondamentali, come pulsioni e conflitti interni.
Questo approccio, però, ignora variabili biologiche, sociali e cognitive oggi considerate essenziali.

4) Autoconsistenza – 5/10

Il sistema concettuale di Freud appare coerente internamente se accettate le premesse di base. Tuttavia, le sue teorie incorporano elementi mutevoli ed interpretativi che generano zone di ambiguità.

5) Approccio meccanicistico – 0/10

La teoria non spiega come funzionano fisicamente i processi psichici che propone. Non esiste un meccanismo operativo verificabile alla base delle pulsioni o del funzionamento dell’inconscio.

6) Quantificazione – 0/10

La psicoanalisi non utilizza grandezze misurabili, né permette una quantificazione oggettiva dei concetti. Termini come “energia psichica” o “libido” non hanno definizioni numeriche né criteri operativi.

7) Semplicità (Occam) – 5/10

Il modello di Freud riduce molte osservazioni cliniche a pochi concetti chiave. Tuttavia, la teoria crea anche nuovi elementi ad hoc per giustificare risultati non coerenti.

8) Conformità alle conoscenze scientifiche – 0/10

Gran parte della teoria di Freud non è compatibile con le neuroscienze, la psicologia sperimentale o la genetica. Le sue ipotesi non trovano riscontro nei modelli attuali del funzionamento cerebrale.

9) Basata sui dati osservati – 5/10

La psicoanalisi nasce dall’osservazione clinica dei pazienti. Tuttavia, tali osservazioni non sono sistematizzate con metodi scientifici né raccolte in modo replicabile.

10) Testata sperimentalmente – 0/10

I postulati centrali della teoria non possono essere messi alla prova con esperimenti controllati. Gli strumenti sperimentali moderni non permettono di rilevare entità come l’Es o la rimozione in senso freudiano.

11) Supportata dai risultati – 0/10

Gli studi psicologici moderni non confermano in modo affidabile le predizioni chiave della teoria. Molte interpretazioni freudiane risultano incompatibili con i test empirici contemporanei.

12) Ripetibilità – 0/10

Le analisi psicoanalitiche non producono risultati ripetibili tra terapeuti diversi. Le interpretazioni variano a seconda dell’analista, rendendo impossibile una verifica indipendente.

13) Falsificabilità – 0/10

La teoria non può essere falsificata: qualunque comportamento può essere reinterpretato come conferma della teoria. Freud stesso riformulava le spiegazioni in modo da evitare che un caso clinico potesse contraddirlo.

14) Elementi predittivi – 0/10

La psicoanalisi non offre predizioni chiare e verificabili sul comportamento umano. Le sue affermazioni sono retrospettive e interpretative, ma non predittive.

15) Accuratezza delle previsioni – 0/10

Dato che non produce predizioni misurabili, non può essere valutata per accuratezza. Le sue “previsioni” consistono spesso in interpretazioni soggettive, non confrontabili con dati indipendenti.

Alla luce di questa valutazione, la teoria eliocentrica emerge come un modello scientifico pienamente consolidato: raggiunge infatti 150 punti su 150, il punteggio massimo possibile secondo i criteri di Berg. La teoria psicoanalitica di Freud, invece, totalizza solo 30 punti, un risultato che riflette la sua scarsa valenza scientifica.

Limiti e potenzialità del metodo

Il sistema di valutazione proposto da Berg rappresenta un tentativo innovativo di misurare la scientificità delle teorie, tuttavia anche questo metodo presenta alcuni limiti importanti.

Il primo riguarda sicuramente la soggettività nell’assegnazione dei punteggi: anche con una griglia ben definita, attribuire un valore numerico a ciascun criterio richiede giudizi interpretativi.

Questo problema potrebbe essere ridotto, grazie al giudizio di un gruppo di esperti, riducendo così la variabilità individuale e migliorando l’affidabilità del punteggio finale.

Un secondo limite riguarda la dinamicità della scienza. La scientificità di una teoria non è immutabile, dato che può cambiare nel tempo con l’arrivo di nuovi dati, tecniche migliori o modelli concettuali più precisi.

Alcuni criteri sono intrinseci e stabili, come la falsificabilità, o l’autoconsistenza, mentre altri invece, dipendono dal contesto storico e possono variare in base alle tecnologie disponibili, come la testabilità o la quantità di dati raccolti.

Una gerarchia nascosta: perché alcuni criteri contano più di altri?

Sebbene nel sistema di Berg ogni criterio assegni lo stesso numero massimo di punti, ciò non significa che tutti pesino allo stesso modo nel determinare la scientificità di una teoria.

La testabilità, la falsificabilità, le basi empiriche, la ripetibilità e la coerenza interna rappresentano sicuramente fattori più importanti, mentre altri criteri — come la semplicità o il riduzionismo — svolgono una funzione più rafforzativa, dato che migliorano la chiarezza e l’efficacia esplicativa, ma non possiedono la stessa importanza dei fattori elencati prima.

Il problema dei punteggi intermedi

Un’altra criticità del metodo riguarda l’uso dei punteggi intermedi (come il 5, che indica un criterio “parzialmente soddisfatto”).
 A prima vista questo punteggio può creare ambiguità, perché sembra collocarsi a metà tra un giudizio positivo e uno negativo, lasciando incerta la posizione della teoria rispetto al criterio valutato.

Questa incertezza deriva dal fatto che non tutti i criteri si comportano allo stesso modo. Alcuni sono graduali, dato che non si manifestano in modo netto.

È il caso della semplicità o del riduzionismo. Una teoria può essere moderatamente semplice o parzialmente riduzionista; in questi casi un punteggio intermedio ha senso perché misura una sfumatura, senza prendere una posizione netta.

Devi sapere infatti, che la scienza procede spesso, per stadi di approssimazione. Una teoria nuova può nascere con un meccanismo ancora incompleto, oppure con una quantificazione limitata, per poi migliorare man mano che emergono nuovi dati. In questi casi la valutazione “parziale” rispecchia la fase evolutiva della teoria, e non rappresenta un problema.

Esistono anche criteri che non funzionano in modo graduale, ma richiedono una valutazione netta. Questo gruppo comprende alcuni criteri, quali testabilità, falsificabilità, basi empiriche, coerenza logica e ripetibilità.

Questi aspetti non ammettono mezze misure, perché definiscono la struttura logica che permette di applicare qualsiasi procedura scientifica. In questi casi la valutazione non può essere intermedia, ma necessariamente “sì” o “no”. Non esiste una “falsificabilità a metà”, così come non esiste una “mezza ripetibilità”. Qui il punteggio intermedio non ha senso.

Nata e cresciuta a Rosignano Solvay , appassionata da sempre per tutto quello che ruota intorno al benessere della persona.Biologa, diplomata all'I.T.I.S Mattei