Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
Gli strumenti diagnostici a disposizione della medicina, nel corso del Novecento, sono andati incontro a una diversificazione funzionale e a un’evoluzione tecnica sia a livello di strumenti di monitoraggio della funzionalità dei diversi sistemi fisiologici, sia nell’ambito delle tecniche di visualizzazione dell’interno del corpo a livello strutturale e metabolico, per avere indicazioni utili non solo sul piano diagnostico ma anche nel contesto di pratiche operatorie.
Le scoperte scientifiche al servizio della medicina
I test diagnostici a disposizione dei medici aumentarono straordinariamente nell’ultimo quarto del XIX secolo. I nuovi dispositivi includono metodi batteriologici e immunologici per la diagnosi delle malattie infettive; chimici e microscopici per le analisi del sangue e delle urine; e poi la possibilità di guardare dentro il corpo umano, grazie alla scoperta dei raggi X. Le sempre più sofisticate tecniche diagnostiche sviluppate nel Novecento hanno reso la pratica medica progressivamente dipendente da un’enorme e crescente varietà di test chimici, citologici, ematologici, immunologici, genetici e dalle tecniche di imaging. Nel 1950 negli Stati Uniti sono disponibili 160 diversi test diagnostici, nel 1987 quasi 1.400.
La nascita e lo sviluppo del laboratorio di diagnosi clinica avvengono gradualmente. Dalla metà dell’Ottocento i laboratori universitari fisiologici, chimici e batteriologici, inizialmente riservati ai soli ricercatori, cominciano a essere utilizzati anche dagli studenti anziani; e quindi, prima in Germania e poi nel resto dei Paesi, l’attività in laboratorio diventa obbligatorio per tutti gli studenti di medicina. I laboratori clinici vengono fondati ancora più avanti, verso la fine del secolo, quando la medicina clinica inizia ad aspirare allo status di scienza indipendente. Il primo laboratorio clinico è del 1885, presso l’ospedale universitario di Monaco, dal medico e fisiologo Hugo von Ziemssen (1829-1902). La ricerca clinica e l’insegnamento sono le funzioni primarie anche dei primi laboratori clinici degli Stati Uniti, come nel caso del William Pepper Laboratory of Clinical Medicine, presso l’università della Pennsylvania fondato nel 1895 o di quello creato da William Osler presso l’ospedale della Johns Hopkins School of Medicine nel 1886. Lentamente questi laboratori clinici arrivano a svolgere ruolo centrale nell’esame dei pazienti.
Alla fine dell’Ottocento, solitamente, un chirurgo spedisce un campione di tessuto al patologo solo quando la diagnosi clinica è già stata effettuata e l’intervento chirurgico completato. In questo modo il patologo non ha nessun ruolo nella conferma della diagnosi, può tuttalpiù soddisfare la curiosità del medico confermando la sua diagnosi. Solo nella seconda decade del Novecento la biopsia viene effettuata prima o durante l’intervento vero e proprio; in questo modo le informazioni tratte dalla biopsia possono essere utilizzate e avere un ruolo importante al momento di decidere la diagnosi e la terapia. Ora il patologo, supportato dalla tecnica, assume il ruolo di consulente, i cui giudizi aiutano, quando non dirigono, le scelte del medico.
La storia degli esami del sangue segue un modello simile. A partire dalla metà dell’Ottocento gli studi microscopici dei componenti del sangue diventano via via più facili e rapidi da eseguire, e ciò fa aumentare la loro utilità clinica. Nonostante questi miglioramenti, la maggior parte dei medici raramente usa questo tipo di esami, ritenendoli non strettamente necessari, complicati da eseguire e troppo onerosi in termini di tempo. Ma nel Novecento questi test smettono di essere appannaggio di un ristretto gruppo di ricercatori e diventano responsabilità prima dei medici e degli studenti che fanno pratica negli ospedali, poi dei patologi e dei tecnici di laboratorio. Diventano di routine nella diagnosi di malattie, come nel caso di vari tipi di anemie, leucemie o infiammazioni, solo quando i laboratori diagnostici iniziano a essere considerati parte integrante degli ospedali. L’autorità – e gli obiettivi – degli esami citologici si espandono ancora quando alcuni tipi di questi esami, come il Pap test per il cancro della cervice messo a punto nel 1920 da George Papanicolaou, arrivano dopo la seconda guerra mondiale a essere usati come esami di routine tra le popolazioni sane.
Specializzazione e tecnologie diagnostiche
La nascita delle specializzazioni in medicina e l’evoluzione della professionalità è legata alle nuove tecnologie diagnostiche. Ad esempio, lo sviluppo dell’oftalmologia a metà dell’Ottocento si deve all’invenzione dell’oftalmoscopio; quello della cardiologia all’elettrocardiografo, inventato nei primi anni del Novecento da Willem Einthoven; quello della neurologia all’elettroencefalografo, messo a punto nel 1929 da Hans Berger. In entrambi questi ultimi due casi lo strumento di ricerca contribuisce a identificare un campo di specializzazione della medicina, si collega a nuove conoscenze fisiologiche e stimola la messa a punto di nuovi criteri di classificazione della malattia.
La crescita della batteriologia clinica non si deve solo all’accettazione della teoria dei germi per le malattie infettive, ma anche all’introduzione di nuove tecniche per coltivare, isolare e differenziare i batteri con metodi microscopici, chimici e immunologici. I test batteriologici diagnostici affondano le radici nei metodi sviluppati da Robert Koch per coltivare e osservare i bacilli del carbonchio, nella sua adozione di tecniche di colorazione per rendere visibili i bacilli della tubercolosi, nello sviluppo di test chimici per identificare specifici batteri. Verso la fine dell’Ottocento sono disponibili anche i test sierologici, come quello di Fernand Widal per il tifo nel 1896, la reazione di fissazione del complemento messa a punto da Jules Bordet nel 1898, e quella di August Paul Wasserman (1866-1925) per la sifilide nel 1906. I test batteriologici e immunologici vengono effettuati da personale non medico e il loro utilizzo di routine è spesso delegato a studenti, assistenti di laboratorio e tecnici. Emergono di conseguenza forti rivalità professionali tra il personale non medico e i medici. Negli Stati Uniti la situazione viene chiarita nel 1926, quando l’American Medical Association stabilisce che i laboratori devono essere diretti da qualcuno dotato di formazione medica e che ai tecnici di laboratorio è vietato fornire la diagnosi direttamente al paziente senza il tramite del medico che lo segue. La questione non è solo quella di decidere a chi attribuire la facoltà di diagnosticare, ma anche quella di stabilire quale affidabilità attribuire ai risultati dei test rispetto al giudizio clinico del medico. La definizione della specificità e della sensibilità dei test diagnostici è diventata possibile grazie all’applicazione dei metodi statistici alla sperimentazione clinica, ovvero all’emergere dell’epidemiologia clinica dopo la seconda guerra mondiale.
La chimica clinica, sempre nell’ottica di un’approccio scientifico ed efficiente alla cura dei malati, stabilisce quali sostanze si possono trovare nel sangue e nelle urine, arriva a una standardizzazione degli esami chimici condotti nei laboratori clinici, e tenta di meccanizzare e automatizzare più esami possibili. La professionalizzazione della biochimica in ambito medico e il tentativo di sviluppare metodi volumetrici e colorimetrici quantitativi per la valutazione delle sostanze chimiche presenti nel sangue e nelle urine viene incentivata dalle riforme dell’educazione medica portate avanti negli Stati Uniti. Donald Dexter Van Slyke e John Punnett Peters pubblicano tra il 1931 e il 1932 Quantitative Clinical Chemistry, dove riassumono una grande varietà di questi metodi, condotti nella routine diagnostica dei laboratori degli ospedali. L’enorme incremento della richiesta per questi test aumentava le pressioni per la loro standardizzazione e automatizzazione, cosicché le industrie investono nello sviluppo di nuovi strumenti. Negli anni Cinquanta del Novecento arriva il primo analizzatore automatico, creato da Leonard Skaggs, che rende gli esami meno costosi. Un ampio uso di questi strumenti in tutte le aree della pratica medica caratterizza i decenni successivi.
Nel Novecento le diagnosi mediche dipendono sempre di più dalle tecniche e dagli strumenti, da metodi standardizzati e quantitativamente precisi. Questi cambiamenti vanno di pari passo con definizioni più riduzionistiche della malattia, nei termini di un malfunzionamento della cellula o della molecola, o, più recentemente, del gene, misurato in maniera quantitativa e confrontato con i valori standard.
Dai raggi X alla diagnostica per immagine
Nel 1896 Wilhelm Conrad Röntgen scopre che i raggi X possono penetrare i tessuti e fornire immagini dell’interno del corpo. Nonostante la opportunità che questa tecnica offre per la diagnosi delle fratture e il basso costo, ci vogliono vent’anni prima che questa tecnica diventi un esame abituale nella pratica clinica. Si sviluppa una contestazione non solo su chi deve effettuare questi esami sui pazienti, ma anche su chi li deve interpretare. I medici mettono da parte tecnici e fotografi e assumono il controllo sulle immagini ai raggi X fondando la radiologia, una delle specializzazioni della medicina. I radiologi, le cui attività sono altamente connesse alla disponibilità e prestazioni dei macchinari, si impegnano per l’incremento di velocità, sicurezza e risoluzione degli apparati a raggi X, così come per lo sviluppo di nuove forme d’immagine. In pochi anni si dimostra che i raggi X provocano effetti collaterali. Nel 1906 il gruppo di Jean Alban Bergonie e Louis Tribondeau formulano l’ipotesi che gli effetti della radiazione sulle cellule viventi è maggiore ai primi stadi della divisione cellulare, che la radiazione colpisce le cellule riproduttive più degli altri tipi di cellule e causa la proliferazione di cellule tumorali in modo proporzionale al loro grado di sviluppo. L’ipotesi è rimasta in vigore fino agli anni Trenta, per essere successivamente sostituita da conoscenze più precise. I raggi X diventano e rimangono comunque la tecnica d’immagine più frequentemente usata.
Dal 1921 i radiologi cercano di analizzare gli organi interni al corpo e si inizia a parlare di tomografia, ossia di un’indagine che consente di ottenere immagini di sezione dell’oggetto in esame. Ma solo nel 1930 Alessandro Vallebona, a Genova, costruisce un modello di dispositivo, detto stratigrafo, che coglie l’immagine di uno spettro, cioè l’insieme delle informazioni riguardanti ogni componente di una radiazione: la distribuzione della sua intensità in funzione di una delle grandezze che la caratterizzano (frequenza, lunghezza d’onda, energia, massa). Durante i vent’anni successivi arrivano nuove machine tomografiche, pensate soprattutto per permettere immagini del tronco. I sostenitori della Tomografia Assiale Computerizzata (meglio conosciuta come TAC), che collega i raggi X al computer in un nuovo modo, si adoperano per fare capire che queste macchine sono possibili e utili per la medicina. Dagli anni Cinquanta vengono sviluppati vari modelli, che, nel caso di quello di William Oldendorf dell’Università del Minnesota, richiedono ben 28 mila equazioni simultanee per avere le informazioni per ricostruire l’immagine. Anche il fisico statunitense della Tufts University, Alan Cormack, sperimenta un modello per la ricostruzione al computer d’immagini di spettri asimmetrici.
Nel 1971 Godfrey Newbold Hounsfield, sostenitore dell’idea che si può ricostruire un’immagine prendendo le misure dell’oggetto da varie angolature, esamina il cervello di una donna per la quale, dati i sintomi, si sospetta un tumore al cervello. I raggi X vengono fatti passare attraverso il cervello della donna e poi catturati da un rilevatore. In 14 ore di esame, muovendo la fonte dei raggi e il rilevatore, si riescono a ottenere e immagazzinare informazioni da 180 punti di vista diversi. Dall’elaborazione dei dati al computer risulta un’immagine da cui sarà facilmente riconoscibile un tumore nel lobo frontale sinistro della paziente. Questa tecnica diagnostica migliora rapidamente, anche grazie a computer sempre più potenti: diminuiscono i tempi – da 14 ore a un secondo – per ottenere l’immagine. Nel 1979 Godfrey Hounsfield viene premiato con il Nobel, insieme ad Allan Cormack, per l’invenzione della TAC.
Usando gli isotopi radioattivi i ricercatori comprendono la possibilità di sfruttare il fatto che alcuni isotopi emettono positroni e, una volta iniettati nel flusso sanguigno, possono essere riconosciuti e i loro spostamenti tracciati grazie a rivelatori sensibili. Nasce così la PET (Positron Emission Tomography - Tomografia a Emissione di Positroni).
Murray E. Phelps, nel 1975, combina la medicina nucleare con le tecniche di imaging, e dimostra che queste tecniche permettono ai medici di seguire le funzioni metaboliche, il flusso sanguigno attraverso il corpo e i processi mentali all’interno del cervello. In pratica, una sostanza metabolizzata dal cervello viene marcata con un isotopo radioattivo a rapido decadimento e iniettata nel circolo sanguigno. Le molecole radioattive della sostanza decadono emettendo una particella, chiamata positrone, che presto collide con un elettrone. In seguito alla collisione due particelle luminose ad alta energia fuoriescono dal cranio in direzioni opposte e vengono rilevate da uno scanner. Il computer analizza milioni di tali impulsi e li converte in una sequenza di immagini in movimento che rappresentano il funzionamento del cervello nella particolare sezione traversale esaminata e che vengono proiettate su uno schermo televisivo. Le immagini sono a colori, e le aree che appaiono colorate con tinte più vivide e calde rappresentano aree cerebrali in cui i tassi metabolici della sostanza iniettata sono più alti.
La tecnica della risonanza magnetica si sviluppa a seguito di un’idea, concepita dal fisico Wolfgang Pauli nel 1924, per cui i nuclei di certi atomi hanno un momento angolare (godono, cioè, della proprietà di un corpo in stato di rotazione) e diventano magnetici. Nel 1937 Isidor Isaac Rabi misura il momento magnetico, o spin del nucleo, per il quale conia la locuzione Risonanza Magnetica Nucleare. Negli anni Cinquanta e Sessanta si capisce che la tecnica può essere utilizzata per distinguere i tessuti maligni da quelli sani, consentendo di riconoscere il cancro al suo primo stadio. Paul C. Lautebur (1929-2007), un chimico della State University di New York, si interessa dei dati della Risonanza Magnetica Nucleare e nel 1971 capisce che si può ottenere un’immagine applicando i gradienti (ossia le variazioni) del campo magnetico in direzioni diverse. La risonanza magnetica nucleare non richiede la somministrazione né di raggi X né di traccianti radioattivi. Il paziente viene posto all’interno di un grande magnete circolare, che con i suoi campi provoca il movimento degli atomi di idrogeno presenti nelle molecole del corpo. Quando il campo magnetico viene disattivato, gli atomi tornano alla posizione originale, producendo un segnale elettromagnetico. Tali segnali vengono letti dal computer e tradotti in immagini dei tessuti.
Anche la tecnica d’immagine basata sugli ultrasuoni è diventata computerizzata. Come suggerito dalla parola, l’ultrasuono rivela le onde sonore ed è l’erede del sonar, la tecnologia usata per localizzare i sottomarini durante la seconda guerra mondiale. Gli ultrasuoni sono entrati in medicina negli anni Cinquanta e hanno trovato le prime e più significative applicazioni nell’ambito della ginecologia, per visualizzare lo sviluppo dell’embrione e del feto. Gli ultrasuoni infatti sono privi di radiazioni e rappresentano, anche grazie a computer sempre più potenti, un modo per catturare immagini in movimento e i dettagli dell’interno del corpo.
Numerosi casi medici e chirurgici spesso hanno bisogno di combinare le varie tecniche d’immagine che, grazie a strumenti informatici sempre più potenti, possono addirittura essere riunificate su un singolo schermo. Naturalmente queste tecniche rappresentano strumenti diagnostici per la medicina, ma oggi vengono sempre più spesso ritenute indispensabili dagli specialisti anche per monitorare gli interventi chirurgici. Vengono così utilizzate sia dai radiologi per effettuare cateterizzazioni arteriose, sia per interventi di ostetricia e ginecologia.