Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
Nata a metà dell’Ottocento come studio descrittivo delle epidemie, l’epidemiologia è diventata una disciplina-chiave per la medicina, sia allo scopo di definire quantitativamente le dinamiche di diffusione delle malattie infettive, sia per fornire un fondamento metodologico obiettivo alla sperimentazione clinica, sia per orientare, sulla base dei risultati degli studi clinici sperimentali, le scelte mediche fino a livello dei singoli casi.
A metà Ottocento, in Inghilterra, il medico inglese William Farr si chiede se gli andamenti delle epidemie dipendano da qualche legge naturale, e se sia quindi possibile caratterizzarli quantitativamente. Analizzando i dati quadrimestrali riguardanti le morti per vaiolo in Inghilterra e Galles negli anni tra il 1837 e il 1839, Farr ritenne di poterli descrivere con una curva normale, e che quindi le epidemie si generino a intervalli più o meno regolari in luoghi insalubri, da cui si diffondono andando incontro a un corso regolare e quindi a un declino. Nel 1850 a Londra viene fondata l’Epidemiological Society.
Agli inizi del Novecento si tenta l’applicazione della statistica matematica ai concetti emergenti di infettività batterica e di trasmissione vettoriale. William Heaton Hamer, nel 1906, ipotizza che il corso di un’epidemia dipenda dalla frequenza di contatti tra individui suscettibili, e tale nozione diventerà uno dei capisaldi concettuali dell’epidemiologia matematica: il principio dell’azione di massa, per cui il tasso netto di diffusione di un’infezione viene assunto come proporzionale al prodotto della densità di persone suscettibili per la densità di individui infetti. A partire da tale principio, nel 1927 William O. Kermack e Anderson McKendrick concepiscono un’altra pietra miliare dell’epidemiologia matematica, cioè la teoria della soglia: l’introduzione di pochi individui infetti in una comunità di suscettibili non darà origine a un’epidemia a meno che la densità o il numero di suscettibili non siano al di sopra di un certo valore critico. Negli anni Sessanta diversi studi su popolazioni relativamente isolate mostrano che una malattia infettiva si mantiene all’interno di una comunità cittadina solo a partire da una soglia di densità assoluta della popolazione. Per il morbillo, ad esempio, è necessaria una popolazione di 4-500 mila persone o più. Dal modello di Kermack e McKendrick, denominato SIR (Susceptible, Infected, Resistent/Removed) è derivato un gran numero di modelli matematici per aggiunta di ulteriori variabili (immunità, periodo di latenza ecc.).
Nel 1911 il medico tropicale inglese Ronald Ross (1857-1967) elabora un modello probabilistico per determinare la relazione tra il numero di zanzare e l’incidenza della malaria in situazioni epidemiche ed endemiche. Tale modello viene ripreso nel 1952 da George MacDonald, che ne ricava, sempre nel contesto della modellizzazione della trasmissione della malaria, il tasso di riproduzione dell’infezione (R0), che rappresenta il numero di infezioni secondarie causate da un singolo caso di malattia. Il tasso R0 è stato quindi assunto da Roy Anderson e Robert May, negli anni Settanta del Novecento, nell’ambito di modelli stocastici più complessi per caratterizzare le dinamiche quantitative di trasmissione delle malattie infettive, in quanto definisce quantitativamente una delle condizioni affinché una malattia infettiva si propaghi all’interno di una popolazione: R0 deve essere superiore a 1, ovvero ogni ospite infettato deve trovarsi in un ambiente che faciliti uno o più contatti infettanti con ospiti suscettibili.
La propagazione della malattia e l’entità di un’epidemia in una popolazione dipendono da diversi fattori spaziali e temporali che sono stati inquadrati negli anni Venti del Novecento da Lowell Reed e Wade Hampton Frost nel cosiddetto modello epidemico Reed-Frost. Nel modello Reed-Frost la propagazione della malattia varia in relazione alla probabilità di contatti infettivi e di ospiti suscettibili. Tale probabilità è influenzata dalla densità della popolazione, dal tempo e dalla durata del contatto, dalla suscettibilità dell’ospite, dall’infettività dell’ospite, dalla trasmissibilità dell’agente, dall’infettività dell’agente e dalla virulenza dell’agente.
Negli ultimi decenni sono stati concepiti decine di modelli matematici sempre più sofisticati che cercano di catturare le complesse dinamiche spazio-temporali delle forme epidemiche (o endemiche) che caratterizzano le diverse malattie infettive. Tali modelli rientrano in due categorie generali: modelli statistici che tentano solo di descrivere la struttura dei dati e modelli meccanicistici che tentano di rappresentare i processi che si ritiene abbiano generato i dati. La maggior parte rimane piuttosto astratta e sottodeterminata, e comunque appare irrealistico aspettarsi un modello unificato delle dinamiche epidemiche, mentre sarebbe più ragionevole cercare di valutare più analiticamente e sperimentalmente il peso delle diverse variabili nei diversi modelli epidemici che tentano di spiegare o predire specifiche dinamiche ospite/parassita.
L’epidemiologia matematica ha altresì spiegato, in linea di principio, in che modo l’immunizzazione può intervenire per ridurre o eradicare un’infezione. portando il tasso di riproduzione al di sotto dell’unità. Ovviamente, più alto è in partenza il tasso, più difficile sarà sradicare l’infezione o, in altri termini, per eliminare l’infezione deve essere più grande la proporzione degli individui immunizzati. Per esempio, l’eradicazione del vaiolo fu possibile in quanto il tasso di riproduzione dell’infezione era fra due e quattro, mentre per il morbillo, in cui il tasso va da 10 a 20, la copertura immunitaria per bloccare la trasmissione deve raggiungere il 92-95 percento della popolazione, e per la malaria sembra che la copertura debba essere anche superiore. Il risultato teorico più interessante dai modelli è che non è necessario vaccinare il 100 percento della popolazione per sradicare un’infezione. Infatti, l’immunizzazione ha sia un effetto diretto sia un effetto indiretto. L’effetto diretto è quello di proteggere chi è stato immunizzato con successo. Ma dal punto di vista dell’infezione la popolazione ospite diventa via via più piccola e parallelamente la trasmissione diventa meno efficace. Ne consegue che la densità effettiva della popolazione di ospiti cadrà al di sotto della soglia e l’infezione non sarà in grado di mantenersi a un livello di copertura più o meno vicino al 100 percento.
La transizione epidemiologica o sanitaria nei Paesi economicamente sviluppati ha visto durante il Novecento il crollo della morbilità e mortalità per malattie infettive e il progressivo aumento dell’aspettiva di vita con un crescente carico di morbilità e mortalità dovuto a malattie cronico-degenerative. I metodi di studio epidemiologici così sono stati applicati, dopo la seconda guerra mondiale, allo studio dei fattori di rischio per le malattie croniche degenerative. L’epidemiologia è così diventata la scienza di base per la prevenzione e la Sanità Pubblica. Tra le cause più importanti di malattie comuni che l’epidemiologia ha contribuito a identificare ricordiamo il fumo di tabacco, responsabile oggi di circa il 30 percento di tutte le morti per tumori nei Paesi occidentali; i cancerogeni professionali come l’amianto, alcune amine aromatiche, alcuni metalli pesanti (cromo, arsenico, nickel), le radiazioni ionizzanti e altre esposizioni professionali o ambientali; e abitudini alimentari come una dieta carente di frutta e verdura e di fibre grezze e ricca di sale, carne rossa e grassi saturi. È opinione comune tra gli scienziati che una sostanziale riduzione delle esposizioni menzionate porterebbe a una riduzione del 20-30 percento delle morti per le principali malattie degenerative.
Questo risultato è stato reso possibile dai considerevoli sviluppi metodologici dell’epidemiologia, in particolare il chiarimento delle basi concettuali del disegno dello studio (coorte, ossia ricerca di dati storici in modo prospettico; caso-controllo, ossia ricerca di fattori di rischio), a opera di autori come David Sackett e Olli Miettinen, e dallo sviluppo delle tecniche di analisi statistica. La ricerca mirante a scoprire le cause delle malattie è di tipo quasi esclusivamente osservativo, non si avvale cioè di esperimenti sull’uomo che sarebbero eticamente inaccettabili. La sperimentazione clinica è necessaria e possibile per studiare l’efficacia dei farmaci o di misure preventive.
Da secoli i medici hanno intuito che per dimostrare l’efficacia di un trattamento è necessario stabilire una comparazione tra due gruppi di persone: uno riceve il trattamento che si intende valutare, mentre l’altro o un trattamento diverso, o nessun trattamento. Un’altra acquisizione riguarda la possibilità di arginare il rischio che i risultati siano falsati a causa di una selezione funzionale alle aspettative di chi effettua l’osservazione attraverso una qualche modalità di allocazione casuale dei soggetti nei due gruppi, affinché siano simili. Nel corso dell’Ottocento e nei primi decenni del Novecento vengono condotti diversi esperimenti che allocano casualmente, con diverse modalità, i soggetti sottoposti a diversi trattamenti per confrontarne l’efficacia, ovvero anche esperimenti in cieco con placebo. Meritano di essere ricordati lo studio sul siero antidifterico condotto da Johannes Fibigernel nel 1898, che somministra il siero antidifterico a giorni alterni ai pazienti ammessi all’ospedale e la sperimentazione controllata condotta da Adolph Bingel, tra il 1911 e il 1914, su 937 pazienti per valutare gli effetti dell’antitossina difterica, effettuando l’allocazione alternata e utilizzando un siero di controllo indistinguibile da quello contenente l’antitossina (solo Bingel sapeva qual era il trattamento genuino).
Solo alla fine degli anni Quaranta viene comunque introdotta l’idea di un confronto sistematico fra gruppi di pazienti del tutto simili: un gruppo viene trattato con il farmaco da sperimentare e l’altro gruppo con un placebo. Ispirandosi a famosi esperimenti su campioni a caso (random) effettuati da Ronald Aylmer Fisher in agricoltura nel 1926, Austin Bradford Hill propone la “randomizzazione”, cioè l’estrazione a sorte non del gruppo, ma dei singoli pazienti da trattare con l’uno o con l’altro farmaco. Tale forma di sperimentazione viene detta “in doppio cieco” (Randomised Controlled Trial, RCT): né i medici, né i pazienti sanno chi sta assumendo la cura sperimentale e chi il placebo.
Il primo RCT in cui viene usata la randomizzazione riguarda la vaccinazione contro la pertosse. Ma il primo studio è pubblicato nel 1948 ed è quello condotto, sotto la guida di Philip D’Arcy Hart, direttore dell’unità di ricerca sulla tubercolosi del Medical Council britannico, sul trattamento della tubercolosi con streptomicina. In questo caso viene escluso l’uso di un placebo (cioè di una somministrazione inefficace), poiché comporterebbe una iniezione intramuscolare, quattro volte al giorno per quattro mesi, di una sostanza inerte. Nel caso di una malattia così grave come la tubercolosi l’effetto psicologico del placebo è considerato marginale.
L’RCT si è imposto come standard della sperimentazione medica, al punto che è diventato la pietra angolare della “medicina basata sulle prove di efficacia”. Nondimeno, il modello della randomizzazione si presta a studiare interventi semplici come terapie farmacologiche o chirurgiche, non interventi complessi, altamente variabili e per i quali l’interazione tra terapeuta e paziente ha un ruolo importante. Poiché l’approccio sperimentale (sperimentazione randomizzata) è proponibile solo per interventi preventivi e curativi, dal momento che per ragioni etiche non è utilizzabile per lo studio dei fattori di rischio, allo scopo di potenziare il ragionamento causale, Bradford Hill ha proposto ulteriori criteri per il riconoscimento dei nessi causali nell’ambito degli studi osservazionali. L’idea di fondo è di supplire alla mancanza di randomizzazione cercando di evitare, per quanto possibile, il bias di selezione (cioè quell’errore sistematico che si verifica se il campione indagato è scelto in modo errato vanificando lo studio), assicurandosi il controllo delle variabili estranee alla relazione causale, e applicando alcuni dei classici criteri di causalità: la riproducibilità delle osservazioni in contesti differenti, la coerenza interna delle osservazioni e la presenza di una proporzionalità tra la causa e l’effetto. A questo si aggiungeva la preoccupazione tipicamente statistica relativa alle dimensioni delle popolazioni studiate: l’inferenza scientifica è giustificata se basata su un numero sufficientemente ampio di osservazioni, cioè se l’intervallo di confidenza delle misure è abbastanza ristretto.
Nel corso degli anni Ottanta e Novanta del Novecento l’epidemiologia è assurta a fondamento della metodologia clinica in generale. Nel 1992 è stato lanciato il movimento dell’ evidence based medicine (la medicina basata sulle prove) che considera come standard di obiettività ed efficacia nell’ambito delle scelte cliniche i risultati dei studio di casi (trial) clinici randomizzati e in doppio cieco, e a tali risultati ogni medico dovrebbe ricondurre il caso del singolo paziente riferendosi alle pubblicazioni accessibili attraverso la letteratura medica internazionale.
Nell’ultimo decennio del Novecento l’epidemiologia clinica ha registrato un crescente interesse per i metodi bayesiani (così chiamati per il legame con il teorema di Thomas Bayes del 1763), che a differenza dell’approccio frequentista tradizionale, tengono conto delle conoscenze già disponibili e forniscono direttamente un valore di probabilità circa la veridicità di un’ipotesi. Nel campo medico i metodi bayesiani potrebbero dimostrare dei vantaggi pratici, consentendo di velocizzare le decisioni e ridurre i costi, cioè rendendo i trial più piccoli e più rapidi. La flessibilità dell’approccio bayesiano potrebbe anche risolvere i problemi etici che si trovano di fronte i clinici quando in osservanza alle esigenze di rigore statistico devono negare i benefici dei trattamenti ad alcuni pazienti. Sebbene molti statistici non rispettino sempre le regole per evitare il disagio morale, numerosi pazienti nei trial tradizionali possono tuttavia ricevere un trattamento meno efficace, anche se magari cominciano a essere chiare le prove che un dato trattamento o una particolare dose di un farmaco sono più efficaci.