La grande scienza: introduzione
La grande scienza
Le attività di ricerca scientifica abbracciano oggi un enorme numero di settori e di problematiche differenti; gli articoli pubblicati su riviste specializzate che diffondono risultati originali superano le centomila unità all'anno solo per la fisica, ma la cifra tocca il milione se si considerano le discipline scientifiche nel loro insieme. Il numero di ricercatori in attività dal 1950 a oggi è superiore al numero totale di quanti hanno fornito contributi alla crescita della conoscenza della Natura dagli albori dell'umanità al 1950.
Nel corso del Novecento, la scienza è stata investita da una serie di cambiamenti paradigmatici e si può legittimamente affermare che, nella seconda metà del XX sec., la definizione dei principî che sono alla base delle diverse scienze empiriche ha registrato significativi avanzamenti; ovviamente numerosi problemi rimangono ancora irrisolti nei campi d'indagine che studiano le dinamiche delle interazioni funzionali più complesse.
In questo volume saranno illustrati alcuni tra i più significativi progressi scientifici maturati nel corso degli ultimi decenni del Novecento. è evidente che, per una comprensione piena dei processi storici che hanno prodotto le conoscenze contenute nei manuali scientifici o nelle pubblicazioni specialistiche, è necessario prendere in esame anche aspetti di natura sociologica e, più in generale, extrascientifica; si pensi, per esempio, agli effetti di lungo periodo derivanti dall'emigrazione, fra le due guerre mondiali, degli scienziati europei negli Stati Uniti, all'influsso esercitato dalla ricerca finalizzata a scopi militari, ai fattori politico-economici che hanno portato alla nascita della Big science; infine all'utilizzazione dei risultati della ricerca in campo industriale, tecnologico e militare, alla politica dei finanziamenti, agli atteggiamenti dell'opinione pubblica, alle controversie etiche e così via. Tuttavia, non di rado la storiografia della scienza contemporanea, con l'obiettivo di privilegiare alcuni di questi aspetti, ha finito per produrre ricostruzioni che si sono rivelate poco attente alle strategie metodologiche peculiari della ricerca scientifica, oppure alle trasformazioni concettuali che hanno segnato lo sviluppo della conoscenza nell'ultimo mezzo secolo. Anche per non cadere in simili eccessi, in questa sezione si è preferito privilegiare una prospettiva che potremmo definire di tipo 'positivistico', dalla quale potrà risultare con maggiore chiarezza una sintesi dei risultati scientifici più significativi ormai stabilmente acquisiti dalla scienza contemporanea.
Questo saggio introduttivo esemplificherà, con qualche dettaglio particolarmente rilevante, i principî e i temi salienti delle scienze negli ultimi decenni del Novecento, insieme ad alcuni problemi ancora aperti o nuovi, riguardanti sia gli obiettivi e i contenuti della ricerca, sia i rapporti tra scienza e società. L'analisi sarà limitata alle grandi trasformazioni intervenute nella fisica, nella chimica e nella biomedicina, con le relative implicazioni per quanto attiene la percezione sociale della scienza.
Un ciclo della storia della fisica si è esaurito e uno nuovo se ne sta aprendo con problematiche diverse. Per un lunghissimo periodo uno degli obiettivi chiave che ha coinvolto i ricercatori è stato quello di individuare le leggi fondamentali della Natura, ossia di identificare i costituenti elementari della materia e le forze che agiscono fra di essi. Nel corso del secolo passato si è raggiunta una formulazione completa e soddisfacente delle leggi della fisica su scale che interessano le normali attività umane, nell'intervallo che va dalla fisica nucleare e subnucleare (10−16 cm) al moto delle stelle e delle galassie. è infatti opinione comune che, in questa regione, il futuro non dovrebbe riservare sorprese per quanto riguarda le leggi di base: l'immenso spettro di fenomeni che avviene su queste scale può essere spiegato, in linea di principio, partendo dalle teorie attualmente accettate.
Alle piccole scale (10−16 cm) i fenomeni osservati si possono agevolmente descrivere nell'ambito della meccanica quantistica relativistica. In particolare, sembra ormai assodato che la materia nucleare sia composta da quark e gluoni che interagiscono secondo le leggi della cromodinamica quantistica. Queste particelle, che non possono esistere isolatamente, danno luogo, combinandosi tra loro, al protone, al neutrone (10−13 cm di raggio) e quindi ai nuclei atomici; esse sono anche responsabili delle forze fra i nuclei.
La meccanica quantistica non spiega perfettamente le proprietà degli atomi e delle molecole; per esempio, soltanto nel caso di sistemi non eccessivamente complessi gli spettri di emissione e di assorbimento della luce misurati sperimentalmente sono in ottimo accordo con il calcolo teorico. Le tecniche della meccanica statistica permettono di studiare le proprietà di aggregati macroscopici di molti atomi e quindi la struttura dei gas, dei liquidi e dei solidi, le transizioni di fase e così via, ma la necessità di spiegare nuovi fenomeni ‒ per es., l'effetto Hall quantistico ‒ ha portato alla costruzione di teorie estremamente sofisticate.
Su scala sempre più grande, invece, le forze gravitazionali, nella forma predetta dalla relatività generale, sono in grado di spiegare con incredibile precisione il moto dei pianeti, delle stelle e delle galassie. In questo ordine di grandezze le difficoltà sono essenzialmente di natura osservativa ‒ non si conosce bene la struttura su larga scala dell'Universo, per es. i grandi vuoti presenti nelle distribuzioni di galassie ‒ ma non sussistono motivi fondati per supporre che le leggi della gravitazione falliscano a tali distanze.
La situazione cambia se si considerano scale più piccole di 10−15 cm o scale molto più grandi delle galassie: innumerevoli sono le cose che non siamo ancora riusciti a comprendere. Per quanto riguarda le piccole scale non è chiaro se la lista delle particelle a noi note sia sostanzialmente completa oppure se esistano nuove particelle relativamente leggere (di massa un centinaio di volte superiore al protone) non ancora osservate. Lo schema teorico attuale non sembra infatti del tutto soddisfacente se applicato a distanze molto più piccole di 10−15 cm (per es., 10−19 cm). Un'ipotesi molto ragionevole (supersimmetria), tendente a modificare la teoria, porterebbe quasi a raddoppiare il numero di particelle esistenti rispetto a quelle conosciute e attualmente sono in corso esperimenti che mirano a scoprirne l'esistenza; la conferma o meno di tale congettura è un punto cruciale della ricerca. Il quadro teorico delle leggi su piccola scala risulterà infatti completamente diverso a seconda che l'ipotesi di supersimmetria si riveli corretta o meno, il che potrà essere stabilito soltanto sulla base di attente verifiche sperimentali.
Su scala ancora più piccola (10−33 cm) diventa necessario affrontare le problematiche connesse con la quantizzazione della gravità. Si tratta di un campo nel quale la situazione è ancora più difficile, poiché in questa regione non si ha la possibilità di condurre esperimenti. L'unica speranza ‒ vista anche l'estrema difficoltà che si incontra nella costruzione di una teoria coerente della gravità quantistica ‒ è che le informazioni già acquisite sulla struttura delle particelle osservate siano sufficienti per elaborare in maniera coerente la teoria adeguata a queste scale. Alcuni fisici sperano che sia possibile scrivere un'equazione, o un insieme di equazioni, a partire dalla quale la struttura delle particelle osservate (quark, leptoni e bosoni intermedi delle interazioni fondamentali), le loro masse e le loro proprietà siano deducibili in linea di principio in accordo con i dati degli esperimenti: una trattazione unica consentirebbe di descrivere sia le leggi gravitazionali sia le forze nucleari. Se questo obiettivo sarà raggiunto (teorie di grande unificazione) si potrebbe in qualche modo ritenere conclusa la ricerca delle leggi fisiche fondamentali, non tanto perché le eventuali leggi proposte dovrebbero essere considerate comunque corrette ma perché una loro possibile violazione sarebbe probabilmente riscontrabile solo in regioni di energia non accessibili all'osservatore. Soltanto il futuro potrà dire se saremo in grado di costruire questa formidabile sintesi teorica (che viene scherzosamente chiamata TOE, Theory of everything). La teoria delle stringhe è al momento attuale la proposta più promettente anche se, nonostante gli enormi progressi che sono stati compiuti, si è ancora molto lontani dalla possibilità di controllarne le predizioni.
Se un simile progetto giungesse a compimento e si trovassero le leggi definitive che regolano il comportamento dei costituenti elementari della materia, il lavoro dei fisici non sarebbe comunque concluso. Infatti, contrariamente a quanto si possa pensare, la conoscenza delle leggi di base non implica affatto la comprensione di tutti i fenomeni. Le leggi della fisica sono spesso formulate come equazioni, la cui risoluzione permette 'in linea di principio' di calcolare il moto dei componenti del sistema fisico considerato. In astronomia, per esempio, la legge della gravitazione universale di Newton spiega le traiettorie dei pianeti. Queste leggi sono note da più di tre secoli, un arco di tempo significativo che ha visto generazioni di astronomi impegnate nella ricerca di algoritmi che consentissero di calcolare le posizioni degli oggetti astronomici proprio a partire da tali leggi.
Per comprendere appieno la complessità di quest'impresa è sufficiente osservare una delle foto degli anelli di Saturno eseguite dalla sonda spaziale Voyager 2: essi non sono omogenei e se ne distinguono tre, ciascuno diviso in una miriade di anelli più piccoli, separati da spazi vuoti. Attualmente sembra possibile ipotizzare che tale complicatissima struttura sia determinata dagli effetti gravitazionali dei satelliti di Saturno sui minuscoli asteroidi (a volte grandi soltanto qualche decina di metri) che compongono gli anelli. Dedurre dalle leggi di Newton la forma di queste suddivisioni degli anelli di Saturno è uno dei problemi aperti su cui gli astronomi lavorano intensamente.
Un ulteriore esempio può essere tratto da un altro campo della fisica. è noto, al di là di ogni ragionevole dubbio, che su una scala microscopica gli elettroni interagiscono fra di loro respingendosi con una forza inversamente proporzionale al quadrato della distanza e che i loro movimenti sono regolati dalla meccanica quantistica. In questo indiscusso quadro concettuale non è affatto evidente per quale motivo certi materiali diventino superconduttori a una temperatura relativamente elevata, a soli 180° sotto zero e non vicino allo zero assoluto (−273 °C). La cosiddetta superconduttività ad alta temperatura è stata scoperta infatti solo recentemente e, nonostante l'enorme massa di dati accumulata in questi ultimi anni, si è ancora ben lontani dall'aver compreso le origini di tale fenomeno, tuttora misteriose. Sebbene si conoscano le leggi che regolano il comportamento di ciascun elettrone, sfuggono le cause dell'emergere di tale comportamento collettivo degli elettroni che danno luogo alla superconduttività ad alta temperatura.
Al giorno d'oggi la difficoltà non sta nella formulazione delle leggi fondamentali, che in moltissimi casi sono già state determinate, ma nello scoprire le loro conseguenze e nel formulare ‒ su base puramente sperimentale o come conseguenza delle leggi di base ‒ leggi cosiddette fenomenologiche del tipo: 'le molle si allungano proporzionalmente alla forza applicata'. Un approccio deduttivo di tipo formale molto spesso non porta a nulla ed è necessario procedere basandosi sull'intuizione e per indizi (come fa il cacciatore), formulando ipotesi di lavoro ed effettuando semplificazioni successive, per giungere a una descrizione nitida, ma semplificata, del fenomeno, sulla quale poter costruire una teoria (la teoria della superconduttività, la teoria dei sistemi complessi, ecc.).
Questo intreccio di intuizione e di deduzione permette di avanzare predizioni sul comportamento dei sistemi fisici, che spesso sono state verificate in momenti successivi; in questo senso si legge sovente che una data teoria è stata confermata sperimentalmente: il termine teoria si riferisce tuttavia quasi sempre non alle leggi di base, ormai accertate al di là di ogni ragionevole dubbio, bensì proprio a questo procedimento di deduzione di leggi fenomenologiche.
Benché a volte qualche fisico si senta come l'Alessandro Magno della poesia di Pascoli, che piange di fronte al mare perché non ci sono nuove terre da conquistare, tale sensazione è tutt'altro che condivisa dalla maggioranza dei ricercatori. La conoscenza delle leggi che governano i costituenti elementari di un sistema non implica affatto la comprensione del comportamento globale del sistema stesso. La risposta a questo tipo di domande si può ottenere utilizzando la meccanica statistica. Questa disciplina, nata a cavallo tra la fine dell'Ottocento e l'inizio del secolo scorso con i lavori di Ludwig Boltzmann e di Josiah W. Gibbs, studia il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle bensì applicando metodi probabilistici. Proprio in questi ultimi trent'anni le capacità predittive della meccanica statistica sono enormemente aumentate, sia per il raffinamento delle analisi teoriche ‒ che permettono di dominare problemi difficili come le transizioni di fase ‒ sia per l'uso di un nuovo strumento d'indagine, il calcolatore elettronico.
La comprensione delle leggi fondamentali ha fornito alla comunità dei fisici una solida base d'appoggio per avviare lo studio di fenomeni relativamente complessi che in precedenza erano stati trascurati: sono emerse nuove problematiche e parallelamente si è diffuso l'impiego del calcolatore elettronico come strumento di ricerca teorico. Questo processo è avvenuto grazie a uno sviluppo senza precedenti delle tecniche sperimentali, dovuto sia all'impegno e alla fantasia dei fisici sperimentali sia ai progressi tecnologici che, a loro volta, sono stati il frutto di una migliore comprensione dei fenomeni di base della fisica.
L'ostacolo principale al passaggio dalle leggi di base alla comprensione dei fenomeni è dovuto al fatto che soltanto in pochissimi casi siamo in grado di descrivere il comportamento dei sistemi fisici a partire dalle leggi fondamentali del moto. Infatti, se il sistema è composto da un grande numero di oggetti elementari che interagiscono fra loro, diventa impossibile seguire, anche concettualmente, le traiettorie delle singole particelle: si rende perciò necessario studiare il sistema da un punto di vista statistico, calcolando, per esempio, la velocità media delle particelle; è tuttavia difficile evitare approssimazioni, che sovente si possono rivelare disastrose.
Lo stesso oggetto fisico può essere descritto, a seconda dei casi, con sistemi di equazioni differenti. Si considerino, per esempio, le onde del mare, distinguendole in piccole e grandi. Quando due onde piccole si incontrano, per un istante esse ne formano una la cui altezza è esattamente uguale alla somma delle altezze delle onde componenti; quando si separano, proseguono per così dire per la loro strada, ciascuna con la stessa altezza che aveva in precedenza: in questo caso una semplice equazione descrive molto bene la situazione. Al contrario, quando si scontrano onde grandi (per es., i 'cavalloni marini'), durante la collisione avvengono fenomeni violenti, l'acqua schizza da tutte le parti e le onde si possono frangere; esse perdono parte della loro energia ed escono dall'impatto entrambe con un'altezza inferiore: il moto di ciascuna onda dipende in maniera determinante dalla presenza dell'altra e il sistema è fortemente non lineare. Ciò ne rende lo studio estremamente difficile ma anche molto più interessante.
Spesso si procede formulando equazioni che descrivano il comportamento dei nuovi fenomeni: nel caso delle onde marine che si rompono si può provare a scrivere un'equazione per l'acqua e una direttamente per la spuma, senza cimentarsi nel compito ‒ praticamente impossibile ‒ di descrivere la spuma dando le coordinate delle singole goccioline d'acqua che la compongono.
Sfortunatamente le nuove equazioni sono sovente anch'esse non lineari e dunque non facili da trattare (per es., quando siamo in presenza di un comportamento caotico). Molti di questi problemi fortemente non lineari rimangono come puzzle irrisolti attorno ai quali si concentra l'attività dei fisici, poiché una teoria generale dei sistemi non lineari purtroppo non è stata ancora elaborata.
Le scienze chimiche hanno raggiunto nei secoli passati un notevole grado di maturità e costituiscono ormai uno strumento indispensabile per la comprensione dei fenomeni naturali, inclusi quelli concernenti la biologia; esse rivestono anche un ruolo di primo piano nella progettazione e nello sviluppo delle tecnologie avanzate utilizzate nella preparazione dei farmaci, dei polimeri materiali e dei carburanti. Nella seconda metà del secolo scorso sono anche affiorati nuovi e stimolanti problemi che riguardano soprattutto il meccanismo e la dinamica delle reazioni chimiche. Viste in una prospettiva storica, le corrispondenti indagini rappresentano il punto di arrivo di un'evoluzione culturale della chimica volta alla completa comprensione e al controllo delle trasformazioni che la materia subisce. A differenza di come possa apparire a un primo esame, molti processi chimici si svolgono attraverso numerose trasformazioni semplici, dette elementari, che si sovrappongono e si incrociano dando origine a una rete di interconnessioni di elevata complessità. Il processo apparentemente semplice di combinazione del metano con l'ossigeno, per esempio, che porta alla formazione di acqua e anidride carbonica con sviluppo di quantità significative di energia termica, coinvolge decine di specie chimiche intermedie che interagiscono in uno schema comprendente centinaia di reazioni. Uno degli obiettivi della chimica industriale è quello di controllare tali reazioni operando in presenza di opportuni catalizzatori, così da poter isolare quelle specie intermedie che si prestano ad applicazioni interessanti. Negli organismi viventi intervengono particolari catalizzatori bioorganici a base proteica, gli enzimi, i quali controllano e dirigono le complesse reazioni che stanno alla base dei processi metabolici. Uno degli esempi più importanti è costituito dal processo che produce energia nelle cellule: i carboidrati sono trasformati in acido lattico attraverso una serie ciclica complessa di reazioni enzimatiche, che avvengono in soluzione acquosa a temperatura ordinaria (nell'insieme chiamate ciclo di Krebs).
Un altro esempio è offerto dall'atmosfera, che costituisce una vera e propria zuppa chimica nella quale sono presenti piccole quantità di particolari sostanze ‒ come gli ossidi d'azoto, i composti organici volatili, l'ozono e altre ‒ che interagiscono in modo talora indesiderato formando composti che possono essere nocivi per gli organismi viventi. La conoscenza e il controllo di tali processi costituiscono un requisito necessario per la tutela dell'ambiente nel quale viviamo.
La scienza dei moti e delle trasformazioni che le molecole subiscono in seguito a reciproche collisioni o a interazioni con le radiazioni viene chiamata dinamica molecolare. Essa contempla indagini teoriche e sperimentali finalizzate all'individuazione del dettagliato meccanismo molecolare attraverso il quale una determinata specie si trasforma in un'altra. La storia della chimica teorica è, in un certo senso, curiosa perché le sue basi, che risiedono nella meccanica quantistica, risalgono agli anni Trenta, ai lavori fondamentali ove è stata formulata in modo quasi completo la teoria del legame chimico. Una loro estesa applicazione ai problemi concernenti la dinamica delle molecole è stata in realtà frustrata dalle grandi difficoltà dei calcoli che si sarebbero dovuti affrontare; di conseguenza si è dovuto attendere, nella seconda metà del secolo scorso, un adeguato sviluppo dei supercalcolatori.
Accanto ai metodi di calcolo dell'energia atomica e molecolare ‒ basati sull'approssimazione del campo medio o campo autoconsistente ‒ è stato recentemente elaborato un nuovo metodo, chiamato teoria del funzionale densità (DFT). Esso trae origine da due lavori, pubblicati contemporaneamente nel 1928 da Enrico Fermi e Llewellyn H. Thomas, incentrati sulla constatazione che l'energia della compagine elettronica dipende unicamente da una grandezza facilmente visualizzabile e sperimentalmente accessibile: la loro densità. Questa idea, a lungo trascurata, è stata ripresa solo nel 1964 per merito di Walter Kohn, il quale ha messo a punto un metodo di calcolo accurato e facilmente praticabile anche con calcolatori di medie dimensioni, aprendo così interessanti prospettive alla previsione teorica degli eventi molecolari. I due approcci si possono considerare in un certo senso complementari perché il primo, richiedendo un elevato impegno di calcolo, può essere applicato per la valutazione molto precisa dell'energia dello stato fondamentale e dei primi stati eccitati di molecole relativamente piccole. Il secondo, con un impegno di calcolo relativamente modesto, fornisce risultati ragionevolmente precisi dell'energia dello stato fondamentale di molecole anche di non piccole dimensioni.
Dal punto di vista sperimentale l'impiego del laser ha allargato in modo spettacolare l'orizzonte della dinamica chimica. La produzione di impulsi di radiazione che vanno dai picosecondi (10−12 s) ai femtosecondi (10−15 s) offre infatti la possibilità di investigare il comportamento di una miscela reagente in un tempo breve rispetto alla vita media di specie intermedie transitorie, permettendo di determinarne le caratteristiche geometriche e dinamiche. Queste informazioni sono ovviamente importanti poiché i diversi moti interni di rotazione e vibrazione delle molecole condizionano le trasformazioni che esse subiscono, determinandone le corrispondenti velocità.
Un ulteriore avanzamento è costituito dal miglioramento delle metodologie e delle tecniche relative all'impiego dei fasci di molecole o atomi con velocità selezionate, che permettono di indagare il comportamento delle singole molecole di energia fissata; nei fluidi soggetti a reazioni chimiche in cui sono presenti molecole con energie distribuite in modo casuale se ne può osservare soltanto l'effetto medio.
Grazie a questo approccio la teoria delle reazioni chimiche non solo amplia le nostre conoscenze ma offre anche uno strumento applicativo in diversi settori riguardanti l'individuazione di nuovi processi chimici, la preparazione di materiali avanzati, una migliore conduzione delle reazioni di combustione e l'approfondimento dei processi chimici che hanno luogo nell'atmosfera, sui pianeti e nelle nubi cosmiche. Queste nuove acquisizioni sperimentali e teoriche stanno conferendo alle scienze chimiche un rinnovato impulso per affrontare problemi di frontiera concernenti la struttura, le configurazioni steriche e il comportamento chimico delle macromolecole biologiche.
Nella seconda metà del Novecento gli avanzamenti conoscitivi realizzati dalla ricerca sulle basi funzionali dei processi biologici, normali e patologici, sono stati davvero straordinari. La biologia e la medicina, nei contenuti concettuali e nelle metodologie di ricerca, hanno subito trasformazioni radicali a seguito della definizione dei meccanismi genetico-molecolari e biochimici che governano la fisiologia degli organismi viventi.
La comprensione delle dinamiche genetico-molecolari della vita è di fatto iniziata con la delucidazione della struttura 'a doppia elica' del DNA, ottenuta nel 1953 da James D. Watson e Francis H.C. Crick, a cui è seguita le decifrazione del codice genetico ‒ completata nel 1966 ‒ e la scoperta della regolazione dell'espressione genica (il concetto di un complesso genico che opera il controllo della sintesi proteica nei batteri è del 1960). Una serie di sviluppi tecnici, che hanno reso possibile una manipolazione sempre più fine del materiale genetico e degli enzimi ‒ primi fra tutti, l'invenzione della tecnologia del DNA ricombinante e del clonaggio genico nel 1972 e nel 1973 e quella di due metodi per sequenziare il DNA nel 1977 ‒ ha consentito di mappare e clonare migliaia di geni e di ricomporre la sequenza di interi genomi: il sequenziamento umano è stato ultimato nel 2003, addirittura in anticipo rispetto ai tempi previsti nel 1990, quando venne varato il progetto ufficiale. Contemporaneamente è progredito lo studio degli svariati meccanismi che controllano l'espressione dei geni o che sono alla base delle funzioni biologiche più complesse.
La biologia si trova oggi di fronte a nuovi problemi, alcuni dei quali nascono proprio dallo spettacolare successo registrato in questi ultimi anni. Lo sviluppo della biologia molecolare e dell'ingegneria genetica permette una comprensione estremamente dettagliata dei meccanismi biochimici di base. In molti casi è noto quali sono le molecole della membrana cellulare che ricevono un messaggio (costituito da un trasmettitore chimico) spedito da altre cellule e come questo messaggio venga trasmesso al nucleo cellulare mediante l'attivazione di una serie di reazioni chimiche. Spesso sappiamo identificare i geni responsabili di un determinato carattere o che controllano la crescita di un organismo o lo sviluppo degli arti. Mancano tuttavia modelli esplicativi in grado di integrare tra loro le informazioni riguardanti i diversi livelli di organizzazione funzionale dei processi biochimici, cellulari e fisiologici in generale. In pratica, le difficoltà di sfruttare completamente l'ingente messe di informazioni acquisite con questi risultati sono dovute alla differenza enorme che esiste fra la conoscenza delle reazioni biochimiche di base e la comprensione del comportamento globale di un essere vivente. Se ne consideri uno dei più semplici, Escherichia coli, un piccolo batterio di lunghezza di poco superiore a un millesimo di millimetro, presente in grandi quantità negli intestini umani. E. coli contiene circa tremila tipi di proteine diverse, le quali interagiscono fra loro secondo schemi determinati; mentre alcune proteine svolgono ruoli essenziali per il metabolismo della cellula, altre regolano la produzione delle prime esercitando un'attività inibitrice sulla loro sintesi proteica o invece promuovendola; la sintesi delle proteine promotrici o inibenti è a sua volta controllata da altre proteine. Attualmente è disponibile la lista completa delle proteine di E. coli e si incominciano ad avere informazioni dettagliate sulle loro interazioni, ma questo tipo di informazioni non è sufficiente per comprendere veramente come funzioni un essere vivente. A un livello più elevato potremo conoscere, in un prossimo futuro, quasi tutti i dettagli funzionali del comportamento dei singoli neuroni, informazioni che però non consentiranno di spiegare come mai alcuni miliardi di questi neuroni, collegandosi fra loro in maniera più o meno disordinata, formino un cervello in grado di pensare.
In altri termini, uno dei problemi che la biologia deve affrontare è come passare dalla conoscenza del comportamento dei costituenti di base (a seconda dei casi, proteine, neuroni, e così via) alla deduzione del comportamento globale del sistema. I sistemi biologici attuali sono il frutto di una selezione naturale durata miliardi di anni e i componenti di un essere vivente sono stati selezionati in diversi contesti ambientali affinché esso funzioni. La cellula viene spesso immaginata come un grande calcolatore: il DNA contiene il programma e le proteine sono l'equivalente dei circuiti elettronici. Questa metafora è in parte fuorviante: un calcolatore è costruito secondo un progetto e i collegamenti che ne consentono il funzionamento non sono realizzati creando una variabilità casuale nella struttura e lasciando che i circuiti si stabilizzino, bensì in base a uno schema ben chiaro e predefinito, appositamente elaborato dagli ingegneri elettronici responsabili della progettazione. Un sistema vivente non è il prodotto né di uno sviluppo completamente casuale né di un progetto, bensì, secondo un punto di vista scientificamente condiviso, il risultato di eventi selettivi che hanno operato nel corso dell'evoluzione ma, in parte, anche a livello dell'ontogenesi, costruendo nuove forme e strategie comportamentali a partire da repertori di variabilità che si producono spontaneamente o che vengono attivamente alimentati.
Lo sviluppo del singolo individuo mostra, appunto, lo stesso connubio di determinismo e di casualità che caratterizza l'evoluzione. Due fratelli gemelli, che hanno un patrimonio genetico identico, sono diversi sotto molti aspetti, a cominciare dai cervelli che, se osservati al microscopio, mostrano che le posizioni e i collegamenti dei singoli neuroni risultano completamente diversi, ossia sono individuali. La metafora del calcolatore appare a questo punto ancor meno pertinente, in quanto due sistemi originariamente identici sul piano genetico producono risultati significativamente differenti a livello di tratti fenotipici complessi.
Nonostante gli straordinari avanzamenti scientifici compiuti nel campo della biologia molecolare non siamo ancora in grado di comprendere direttamente il funzionamento complessivo di una cellula, né tanto meno quello di un organismo intero o di un ecosistema. Si tratta di problemi che devono essere affrontati attraverso una concettualizzazione e utilizzando modelli in grado di catturare livelli di organizzazione gerarchicamente superiori. Va registrata una ripresa di interesse negli ultimi anni per programmi di ricerca che fanno riferimento a una visione sistemica dei processi biologici e che sfruttano le potenzialità dei mezzi informatici, oltre a una rinnovata tendenza alla collaborazione tra biologi, matematici e fisici.
I progressi della biologia e della genetica molecolare non hanno semplicemente rappresentato un avanzamento, pur rilevantissimo, nelle tecniche di manipolazione del 'germoplasma' ma anche un particolare cambiamento nelle prospettive con le quali un numero crescente di ricercatori nelle scienze della vita ha modificato linee di ricerca e obiettivi sperimentali. La possibilità di produrre copie clonate di esseri viventi ‒ anche evolutivamente non molto lontani dalla specie umana ‒ e (per ora su scala relativamente ridotta) piante e animali transgenici ha costituito una particolare novità nel panorama delle scienze della vita. Insieme ai progressi del Progetto genoma, questi avanzamenti scientifici hanno prodotto una serie di interrogativi di natura etica, alcuni dei quali (brevettabilità delle sequenze geniche, rischio di discriminazione su base genotipica, clonazione a fine di trapianti d'organo, utilizzazione massiccia di specie vegetali e animali transgenici, e così via) hanno vivacizzato il confronto culturale negli ultimi lustri del secolo scorso, senza trovare finora un consenso definitivo. Si può quindi affermare che ‒ in parallelo con i mirabili progressi delle scienze, e in particolare di quelle biologiche ‒ è cresciuto un ambito disciplinare 'di confine' il quale, non inutilmente, ha posto alcuni limiti a determinate linee di ricerca, nello stesso tempo avvicinando i ricercatori di base a esperti di discipline anche molto lontane tra loro, dai filosofi ai giuristi, al composito universo dei cultori della bioetica contemporanea.
Inoltre, nutriti gruppi di cittadini hanno costituito nel contempo associazioni in grado di dialogare tanto con i governi nazionali (o con organismi sovranazionali quali l'OCSE o l'ONU) quanto con esperti del mondo della ricerca; un esempio di tale interazione è rappresentato dalle associazioni ambientaliste europee e nordamericane, che hanno certamente esercitato un ruolo rilevante nelle politiche di finanziamento della ricerca e nella definizione degli obiettivi programmatici nelle agende nazionali e internazionali.
Nella seconda metà del Novecento la medicina si è progressivamente biologizzata e molecolarizzata, nel senso che la biologia di base ha fornito alla clinica strumenti concettuali e tecnici sempre più efficaci per perfezionare le indagini eziopatogenetiche a scopo diagnostico e terapeutico. Per la verità, il processo non è stato unidirezionale, nel senso che comunque l'osservazione e la ricerca clinica ‒ soprattutto per quanto riguarda la biologia dei tumori ma, in generale, rispetto alle basi genetico-molecolari delle malattie ‒ hanno attivamente stimolato l'utilizzazione in ambito medico dei concetti e delle tecniche della genetica. L'efficacia e la portata teorica della nuova genetica stanno di fatto creando una medicina genetica in cui i fondamenti stessi della medicina e della sua pratica vengono rivisitati alla luce delle conoscenze sul genoma umano, relative non soltanto alla sua organizzazione e al suo modo di funzionare ma anche alle sue origini.
Alcune aspettative, diventate vere e proprie idee guida per la ricerca applicata in medicina ‒ come il caso della prospettiva di creare una medicina personalizzata, ossia ritagliata sul patrimonio genetico individuale ‒ sono forse eccessive o poco praticabili al momento; nondimeno, il concetto che le ispira, vale a dire che ciascuna malattia ha una manifestazione individuale e ogni paziente risponde diversamente alla stessa terapia, è del tutto corretto, se è vero che il nostro genoma e le dinamiche epigenetiche che ne controllano l'espressione sono variazioni uniche su temi specie-specifici. In realtà, la tradizione metodologica della medicina scientifica tende ancora a considerare le basi genetiche delle malattie solamente come una tra le possibili cause prossime e, anche in ragione dell'organizzazione dei contenuti dell'insegnamento medico, permangono forti resistenze a pensare i problemi medici in una prospettiva biologica che non sia soltanto funzionale e meccanicistica ma anche evolutiva e dinamica.
Parallelamente alla diffusione dei concetti e delle tecnologie genetico-molecolari, la seconda metà del Novecento ha registrato l'ascesa irresistibile dell'epidemiologia clinica quale base metodologica per determinare la validità delle decisioni cliniche. Affermatasi dopo la Seconda guerra mondiale attraverso la dimostrata necessità dei trial clinici per controllare la sicurezza e l'efficacia dell'enorme numero di nuovi farmaci e delle tecniche diagnostiche e terapeutiche continuamente proposte, l'epidemiologia clinica si è progressivamente rafforzata grazie al perfezionamento dei disegni sperimentali, allo sviluppo delle tecniche di analisi statistica e al potenziamento dei calcolatori. Con l'emergere del movimento dell'evidence-based medicine (EBM), l'epidemiologia clinica è stata addirittura posta alla base di un rinnovamento paradigmatico della medicina, suscitando qualche riserva in chi non vede una reale crisi del modello biomedico che cerca di andare oltre il livello empirico di dimostrazione dell'efficacia, nel tentativo di definire i meccanismi che spiegano una determinata osservazione.
è indubbio che la medicina stia attraversando una fase di riorganizzazione delle proprie strategie di ricerca e di intervento, anche sotto la pressione di emergenze sanitarie in continua e rapida evoluzione su scala planetaria. La necessità sempre crescente di salvaguardare la salute, la pressione degli avanzamenti tecnologici, i processi economici di globalizzazione e i vincoli imposti dalla scarsità delle risorse comportano l'esigenza di costruire politiche di sanità pubblica con obiettivi a lungo termine e sulla base di determinanti della salute e della malattia più compositi. è prevedibile che la medicina utilizzerà sempre più massicciamente le acquisizioni della ricerca di base che, come si è detto, è comunque ancora carente di modelli esplicativi in grado di integrare funzionalmente l'ingente messe di dati che esce dai laboratori. Verosimilmente sussistono ampie prospettive per un'elaborazione teorica alimentata da una dialettica costruttiva tra clinica, sanità pubblica e biologia.
Oggi, il calcolatore elettronico può essere considerato a pieno titolo un nuovo strumento d'indagine scientifica. Una volta il passaggio dalle leggi alle conseguenze delle stesse si attuava mediante argomentazioni che potevano sia ricorrere a strumenti matematici rigorosi, sia basarsi (e questo accadeva spesso) su forme di intuizione e sull'analogia. Nell'immaginario scientifico il 'teorico' aveva bisogno soltanto di carta e matita per effettuare le sue previsioni, in opposizione allo 'sperimentale' che aveva necessità di costose apparecchiature per controllare la correttezza delle teorie. I calcolatori attuali hanno enormemente ampliato le capacità di calcolo, poiché esistono macchine in grado di eseguire circa mille miliardi di operazioni al secondo su numeri di 7 cifre e, di conseguenza, imprese una volta considerate impossibili sono diventate del tutto banali. Un tempo, se si voleva calcolare teoricamente la temperatura di liquefazione di un gas (per es., l'argon) supponendo di conoscere la forma delle forze fra i vari atomi, era necessario fare approssimazioni non del tutto giustificate e solo sotto queste ipotesi si poteva ottenere una predizione, che peraltro non era in ottimo accordo con i dati sperimentali. Oggi è invece possibile, grazie al calcolatore, evitare approssimazioni sul moto delle particelle e calcolare esattamente le loro traiettorie; per esempio, si può simulare il comportamento di un certo numero di atomi di argon (diciamo 8000) presenti all'interno di un contenitore di dimensioni variabili e osservare cosa succede: cioè se l'argon si comporta come un liquido o come un gas. Il peso computazionale di una tale simulazione è enorme, in quanto occorre calcolare le traiettorie di 8000 particelle e seguirle per un tempo sufficientemente elevato da poter trascurare la dipendenza dalla configurazione iniziale. Se si pensa all'ingente quantità di calcoli complicati che i matematici dell'Ottocento dovettero affrontare per studiare le traiettorie di pochi pianeti, ci si rende conto che, in assenza del calcolatore, un approccio basato su strumenti teorici tradizionali sarebbe stato inimmaginabile.
Le simulazioni hanno uno status intermedio fra teoria ed esperimento. Esse non costituiscono un esperimento inteso in senso tradizionale, visto che non si usano atomi di argon per ottenere la temperatura di liquefazione; ciononostante, il compito del teorico è molto simile a quello di uno sperimentale tradizionale: egli prepara l'apparato sperimentale (il calcolatore), decide le condizioni in cui l'esperimento debba avvenire (condizioni iniziali, numero di particelle, natura e andamento delle forze, e così via), avvia la simulazione e attende i risultati, che alla fine osserva e analizza. La simulazione fa molto spesso da trait d'union fra la teoria e l'esperimento: lo 'sperimentale' confronta i suoi dati con i risultati delle simulazioni che il 'teorico', dal canto suo, tenta invece di predire.
Uno dei motivi dell'interesse suscitato da questo tipo di approccio consiste nel fatto che si possono simulare anche sistemi non esistenti in Natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di diventare il laboratorio privilegiato per la sperimentazione di nuove teorie che non potrebbero essere verificate direttamente nel mondo reale, troppo complicato. Ovviamente lo scopo finale è di applicare le idee sorte in questo ambito teorico a casi concreti, ma ciò può avvenire soltanto dopo che la teoria si sia sufficientemente rafforzata e si sia dimostrata particolarmente affidabile nel confronto con le simulazioni. Metaforicamente si potrebbe affermare che le simulazioni giocano anche il ruolo di incubatrici per le teorie nate settimine.
Le tecniche sperimentali sono probabilmente il settore che più ha risentito dei cambiamenti dell'organizzazione della scienza e del mutato rapporto tra questa e la tecnologia. All'inizio del secolo gli esperimenti erano effettuati da gruppi molto piccoli di persone (al massimo due o tre) e le apparecchiature, anche molto sofisticate, venivano costruite perlopiù all'interno delle università in officine meccaniche estremamente attive che, sotto la guida di artigiani di valore, erano in grado di soddisfare gran parte delle necessità dei gruppi di ricerca. In molte università, per esempio, i fisici imparavano anche a usare il tornio e la fresa, strumenti il cui studio è ormai negletto.
Attualmente la situazione è diversa sotto molti punti di vista. La nascita della meccanica quantistica ha dato agli scienziati la possibilità di comprendere la struttura di molti materiali ‒ alcuni dei quali di enorme interesse dal punto di vista applicativo ‒ il cui comportamento sarebbe stato incomprensibile nell'ambito della fisica classica (per es., i semiconduttori). Nasce così un campo estremamente importante, ossia la scienza applicata allo studio delle proprietà dei materiali, e nel primo dopoguerra si ottiene un successo spettacolare: il transistor viene prima progettato e successivamente realizzato nei Bell Laboratories. Dato che il transistor è costruito in maniera assai peculiare (due materiali separati da uno strato molto sottile costituito da un terzo materiale), è davvero molto difficile pensare di poterlo scoprire per caso, in assenza di un esperimento mirato. Il passaggio dai primi transistor (ben visibili a occhio nudo) ai transistor attuali dei circuiti elettronici a grandissima integrazione (VLSI, very-large scale integration), di dimensione a volte inferiore al micron, ha richiesto a sua volta un enorme sforzo teorico e sperimentale nel campo della scienza dei materiali e della fisica applicata. Le moderne macchine fotocopiatrici si devono anch'esse ai progressi compiuti nella fisica delle superfici.
I progressi tecnologici del dopoguerra non sarebbero stati possibili senza il contributo della scienza; del resto, l'evoluzione della tecnologia consente per contro un particolare affinamento delle misure sperimentali. La storia dello sviluppo della tecnologia nell'ultimo secolo è caratterizza da analoghi sinergismi: le innovazioni che interessano un settore contribuiscono all'avanzamento anche in altri campi. Una vicenda simile si registra nel caso del laser, la cui scoperta ha permesso la costruzione di strumenti di misura altamente sofisticati. In biologia un uso intelligente degli enzimi naturali come macchine per agire a livello molecolare permette di analizzare e manipolare con grande facilità molecole biologiche di estrema complessità.
Il progresso dell'elettronica ha rivoluzionato le tecniche sperimentali, sia rendendo possibile la realizzazione di strumenti ad altissima precisione e a basso costo, sia permettendo l'acquisizione e l'analisi automatica dei dati controllata da un calcolatore. Esso inoltre viene utilizzato per consultare le informazioni acquisite e anche per elaborare modelli e formulare predizioni. Registrare i dati in formato digitale e analizzarli successivamente con tecnologie informatiche non soltanto può ridurre in misura assai rilevante il tempo necessario per la loro acquisizione e la possibilità di errori umani ma consente anche di avviare ricerche altrimenti impossibili; basti pensare alle moderne tecniche di sequenziamento del DNA, in cui esso viene spezzettato in maniera parzialmente casuale in diverse unità, relativamente corte, che vengono sequenziate indipendentemente. La sequenza originale del DNA è ricomposta come in un gigantesco puzzle. I dati su tali sequenze ‒ o sulla forma tridimensionale delle proteine ‒ attualmente disponibili sono immessi in enormi banche-dati (il genoma umano stampato occuperebbe circa un milione di pagine). Il problema, concettualmente semplice ma a volte molto importante dal punto di vista pratico, di trovare tutte le sequenze simili a una sequenza data può essere affrontato soltanto mediante l'uso di sofisticati programmi di calcolatori.
Una delle più promettenti tecniche di analisi sviluppate negli ultimi anni si basa sui cosiddetti DNA chip. Questi sofisticati sensori permettono di misurare simultaneamente in maniera quantitativa i livelli di produzione di diecimila o più proteine. Solamente per identificare quali siano le proteine rilevanti per caratterizzare un dato fenomeno ‒ per es., distinguere una linea tumorale di cellule con tendenze a metastatizzare da una meno aggressiva ‒ è necessario analizzare in dettaglio i risultati di un grande numero (per es., un centinaio) di misure su linee cellulari provenienti da soggetti differenti: tutto ciò non sarebbe possibile senza l'ausilio di calcolatori.
Per effettuare determinate esperienze molto spesso sono necessarie attrezzature estremamente ingombranti e costose, che difficilmente possono essere gestite da un solo gruppo sperimentale; in questi casi si costruiscono laboratori attrezzati in appositi centri in cui possono lavorare ricercatori di varie università. I reattori nucleari, per esempio, sono usati per produrre i fasci di neutroni necessari allo studio delle proprietà dei solidi: gli anelli di accumulazione di elettroni emettono una grande quantità di radiazione di sincrotrone e sono di gran lunga la miglior sorgente di raggi ultravioletti e raggi X soffici; essi sono uno strumento indispensabile per lo studio delle proprietà delle superfici dei materiali.
Nella fisica delle alte energie questa tendenza è fortemente accentuata ed esistono alcuni centri internazionali ai quali aderiscono fisici di vari paesi. La concentrazione delle attività è provocata dall'altissimo costo delle apparecchiature di base; un acceleratore di particelle necessario per ottenere progressi significativi in questo campo costa qualche miliardo di euro. Lo stesso apparato sperimentale che serve a rivelare le particelle emesse durante le collisioni può facilmente costare alcune centinaia di milioni di euro: esso è frutto del lavoro, per vari anni, di centinaia di fisici che collaborano occupandosi ciascuno di aspetti differenti (elettronica, meccanica, analisi dei dati, ecc.).
La costruzione di questi giganteschi acceleratori di particelle è stata assolutamente indispensabile per effettuare esperimenti cruciali, che hanno fornito i dati sperimentali sulla base dei quali sono stati proposti ‒ e successivamente confermati ‒ i modelli attuali per le interazioni forti ed elettrodeboli. Simili considerazioni si possono fare per il Progetto genoma.
Da un punto di vista prettamente antropologico, l'importanza crescente che scienza e tecnologia hanno acquisito durante il XX sec. ha prodotto mutamenti rilevanti nella compagine degli addetti ai lavori. Se in passato, infatti, il mondo della ricerca era limitato essenzialmente a centri di formazione universitari per élites intellettuali e professionali, ad alcune accademie di elevato prestigio e a un indistinto ‒ ma poco cospicuo ‒ insieme di studiosi del mondo industriale, nel corso del secolo passato (in particolare nel secondo dopoguerra) il numero dei ricercatori e dei docenti si è notevolmente ampliato.
Lo sviluppo della chimica analitica e soprattutto di quella sintetica, integrandosi con gli avanzamenti della biologia e della fisiologia, ha senza dubbio determinato il grande progresso conseguito nell'individuazione e nella fabbricazione di farmaci che hanno contribuito in modo significativo al miglioramento della salute dell'uomo. I primi erano di origine naturale ma, a partire dagli anni Trenta del secolo scorso, hanno acquistato un ruolo importante i procedimenti sintetici e un punto di svolta in questa direzione si è avuto con la sintesi dei sulfamidici. Negli anni Quaranta l'avvento del capostipite degli antibiotici, la penicillina, ha promosso l'impiego e lo sviluppo dei processi fermentativi, nei quali si trae vantaggio dalla capacità degli enzimi di favorire sintesi mirate all'ottenimento di molecole dotate di particolare attività. La chimica organica sintetica ha continuato a ricoprire un ruolo importante poiché, grazie al suo avanzamento nella seconda metà del Novecento, ha individuato i procedimenti di sintesi di molecole molto complesse di interesse farmaceutico, quali, per esempio, la vitamina B12 e il tassolo.
Gli ulteriori progressi delle conoscenze sulle comunicazioni inter- e intracellulari, unitamente alla possibilità di controllare la trascrizione genica, hanno ulteriormente caratterizzato la farmacologia nella direzione molecolare. L'approccio moderno alla sintesi dei farmaci comporta infatti una vera e propria progettazione delle molecole di potenziale interesse, avendo come modello i prodotti naturali o fruendo semplicemente dell'immaginazione umana. Questo approccio, chiamato drug design, trae vantaggio anche dalle conoscenze teoriche derivate dalla chimica quantistica, in virtù delle quali risulta possibile effettuare soddisfacenti previsioni sulle interazioni fra le molecole candidate e le corrispondenti molecole proteiche che esercitano il ruolo di recettori.
All'inizio, l'influenza della biologia molecolare sulla ricerca farmaceutica sembrava restringersi al clonaggio dei geni per i recettori e gli enzimi, nonché allo studio dell'espressione di geni che codificano proteine interessanti dal punto di vista terapeutico. L'avvento delle nuove tecnologie genomiche e post-genomiche ha invece dotato la ricerca farmaceutica di strumenti che promettono di rivoluzionare strategie e obiettivi. L'avvento delle scienze genomiche ‒ cioè il sequenziamento rapido del DNA, la chimica combinatoria, i test su colture cellulari e i metodi di screening automatizzati ‒ sta portando a una nuova concezione della ricerca farmaceutica; in essa, il dialogo tra chimici e biologi e la qualità del ragionamento scientifico sono potenziati dai grandi numeri. Con ciò intendiamo affermare che numeri elevati di possibili bersagli vengono saggiati attraverso questi sistemi esponendoli a un altrettanto elevato numero di composti, che rappresentano molte variazioni su pochi temi chimici o, anche, poche variazioni su numerose configurazioni chimiche.
Nondimeno, a fronte di questo aumento ingente della quantità di dati grezzi, non si è ancora registrato un incremento adeguato della produttività della ricerca. Valutata in base al numero di composti che sono stati immessi dalle 50 maggiori industrie farmaceutiche, la nuova strategia non ha ancora migliorato la produttività; anche se è verosimile che la quantità media di composti in fase di sviluppo sia aumentata negli ultimissimi anni.
è ancora difficile giudicare la fortuna del nuovo paradigma della ricerca farmacologica sulla base dei dati pubblicati. Secondo alcuni i nuovi metodi stanno conseguendo grandi successi, come dimostrerebbe l'elevato numero di pubblicazioni degli ultimi anni, mentre altri hanno espresso delusione per la scarsità di risultati ascrivibili a tale paradigma; vi è infine chi pensa che esso, entrato in funzione da troppo poco tempo, non operi ancora in modo ottimizzato.
Dal punto di vista della chimica, i tentativi più recenti di progettare collezioni di composti chimici diversamente combinati è stato guidato dall'intento di disporre di un elevato grado di diversità strutturale in cui effettuare una ricerca sistematica, sulla base delle conoscenze strutturali già disponibili. Non è però del tutto chiaro in quale misura la diversità molecolare vista dal chimico e calcolata dai descrittori strutturali corrisponda alla diversità così come viene 'vista' da una molecola biologica bersaglio. Il progetto e il campionamento di collezioni di composti dovrà essere guidato non soltanto da descrittori strutturali ma anche da descrittori dell'attività biologica. Ciò può essere realizzato controllando tutti i composti in una collezione rispetto a un insieme di proteine funzionalmente dissimili e determinando l'affinità di legame di ogni composto per tale proteina.
Gli sviluppi della biologia strutturale, più specificamente della spettroscopia a risonanza magnetica nucleare, della cristallizzazione robotica, della manipolazione criogenica dei cristalli, della cristallografia a raggi X e della computazione ad alta velocità hanno enormemente facilitato la determinazione della struttura proteica. Di fatto, gli avanzamenti tecnologici hanno spinto la biologia strutturale verso una posizione in cui appare possibile la comprensione della struttura tridimensionale di proteine medicalmente rilevanti su larga scala. La fattibilità di questo concetto di 'genomica strutturale' è supportata dal fatto che l'universo di avvolgimenti compatti delle proteine globulari risulterebbe finito; sembra non eccedere il numero di 5000 disposizioni spaziali distinte delle catene peptidiche.
Nella maggior parte dei processi chimici naturali e industriali interviene un atto catalitico in virtù del quale la velocità di alcune delle reazioni in gioco aumenta, condizionando così l'evoluzione dell'intero sistema. Pertanto le indagini sulla catalisi costituiscono tuttora una frontiera di grande interesse conoscitivo e applicativo e, in un certo senso, gli sviluppi in tale settore seguono di pari passo quelli della chimica industriale, poiché le grandi sintesi della chimica inorganica e organica sono strettamente legate all'elaborazione di un determinato processo catalitico. Le ricerche svolte attualmente in questo settore fruiscono di metodologie fisiche diffrattometriche, spettroscopiche e microscopiche estremamente accurate e sofisticate, che offrono un'immagine dei dettagli delle superfici dei catalizzatori anche durante gli atti reattivi, con interessanti ricadute nella progettazione e preparazione di nuovi catalizzatori.
Un ulteriore settore di avanguardia interessa la preparazione dei materiali impiegati nelle tecnologie elettroniche e optoelettroniche, alcuni dei quali, per esempio i superreticoli e le strutture modulate, non esistono in Natura, quasi a confermare la stupefacente affermazione di Leonardo: "Dove la Natura finisce di produrre le sue specie, comincia l'uomo, in armonia con le leggi della Natura, a creare una infinità di specie". Le tecniche applicate per tali preparazioni sono estremamente avanzate e sofisticate, come si verifica, per esempio, nell'epitassia da fasci molecolari (molecular beam epitaxy), nella quale i diversi componenti vengono depositati da una fase vapore su strati molto sottili in tempi successivi. La disponibilità di queste tecniche apre ovviamente ampi orizzonti per l'ottenimento di materiali aventi duttilità d'impiego, con notevoli aspettative per l'affermazione di tecnologie emergenti.
Gli studi e le ricerche sulla cosiddetta materia soffice ‒ comprendente i polimeri, i tensioattivi, i cristalli liquidi, le particelle colloidali e soprattutto la materia di cui sono costituiti gli organismi viventi ‒ stanno aprendo a ventaglio un'importante serie di problematiche. Sin dall'inizio del secolo scorso era stato intrapreso da parte dei chimici un ampio programma sulla sintesi di polimeri diversificati, i quali, grazie alle loro proprietà meccaniche e termiche, hanno gradualmente intaccato il predominio dei metalli in diversi settori applicativi; recentemente è stato evidenziato che essi sono anche in grado di sostituire i materiali inorganici funzionali in particolari applicazioni riguardanti l'elettronica.
Infine è significativo ricordare che la chimica offre attualmente interessanti prospettive al settore emergente delle nanotecnologie, attraverso la sintesi di materiali nei quali le molecole, per effetto di deboli interazioni, si autoassemblano in strutture complesse analoghe a quelle costruite dai ragazzi mediante il montaggio di pezzi modulari che si incastrano l'uno nell'altro. Si ottengono così estese architetture molecolari, collettivamente ordinate in modo da presentare ben definite funzionalità. Questa chimica, chiamata supramolecolare, ha aperto anche uno spiraglio nell'interpretazione e simulazione dei processi, nel contempo meccanici, elettrici e chimici, che stanno alla base dei movimenti dei semplici organismi viventi monocellulari e che, opportunamente mimati, potrebbero portare alla costruzione delle micromacchine anticipate dalla fervida fantasia del fisico teorico Richard P. Feynman.
Proprio a causa del ruolo assunto nello sviluppo di nuove tecnologie, la scienza è divenuta un settore dell'attività umana sempre più rilevante sul piano economico e politico-sociale. I paesi industrializzati investono cifre consistenti nel settore della ricerca e sviluppo: in media intorno al 2% del PIL; casi limite sono l'Italia da un lato, con poco meno dell'1%, e il Giappone con ca. il 3%. La ricerca militare ha rivestito ‒ durante, e anche dopo, la Seconda guerra mondiale ‒ una funzione significativa nel promuovere una nuova organizzazione della ricerca scientifica, non soltanto attraverso il progetto di ideazione e produzione della bomba atomica ma anche per lo sviluppo di sistemi radar, macchine calcolatrici, metodologie fisico-chimiche applicate all'analisi della funzione biologica e alla creazione di farmaci. Al momento attuale una parte importante dell'assetto strategico militare mondiale riflette gli investimenti che negli ultimi cinquant'anni sono stati destinati alla ricerca a scopi militari. Il problema della responsabilità morale degli scienziati, in passato scarsamente percepito, è diventato sempre più vivo e sentito.
Il prevalente interesse economico ha causato la graduale diminuzione, specialmente a livello dei finanziamenti, dell'interesse per la ricerca curiosity-driven a favore di studi con (preteso o meno) scopo applicativo. Questa tendenza a privilegiare le attività scientifiche le cui possibili applicazioni sono note in anticipo è frutto di una percezione della scienza deformata politicamente, ossia piuttosto miope, in quanto la ricerca scientifica di base è per definizione volta a risolvere problemi e quindi rappresenta una miniera di sorprese: molti dei progressi tecnici che hanno influito considerevolmente sullo sviluppo tecnologico sono applicazioni inattese di studi che avevano soprattutto un interesse speculativo.
La tendenza a una specializzazione sottodisciplinare, dovuta a metodologie sempre più sofisticate e la cui acquisizione richiede un investimento pluriennale, costituisce spesso un fattore involutivo. A questo si aggiunge anche la deplorevole propensione a focalizzare la propria ricerca su argomenti molto ristretti. Nelle domande di finanziamento la presenza del termine 'interdisciplinare' è generalmente valutata in modo positivo ma, ciononostante, non vengono favoriti né lo sviluppo di collaborazioni interdisciplinari né una formazione interdisciplinare dei ricercatori, in quanto in molti paesi il sistema concorsuale, o almeno l'acquisizione di credenziali tecniche specifiche, spinge a settorializzare i curricula, creando in tal modo barriere tematiche. Tali barriere sono ulteriormente accresciute dalla nascita di terminologie specifiche di settore le quali rendono più difficili e rarefatti i rapporti tra settori diversi, anche se tematicamente affini, tanto che gli specialisti dell'uno finiscono per incontrare grandi difficoltà nel leggere e comprendere articoli tecnici dell'altro.
Il modo di trasmettere le informazioni scientifiche è cambiato profondamente. Il fenomeno più appariscente è stata la progressiva marginalizzazione delle pubblicazioni in lingue diverse dall'inglese, che ha proceduto di pari passo con l'ampliamento del ruolo degli Stati Uniti nel campo della scienza. Il panorama editoriale scientifico ha subito una radicale trasformazione e si è assistito a un aumento esplosivo del numero sia di riviste (alcune molto specializzate) sia di articoli pubblicati. L'informazione ne risulta frammentata.
Un fenomeno nuovo è rappresentato dalla crescente importanza delle banche-dati ‒ bibliografiche e non solo ‒ e degli archivi on-line. Questi ultimi possono essere di varia tipologia. Per esempio Medline/Pubmed comprende tutti gli articoli pubblicati in un elevato numero di riviste (perlopiù mediche o di argomento affine): alcune informazioni (per es., gli autori, il titolo dei saggi e il sunto) sono di libero accesso, mentre il testo completo può essere consultato solo a pagamento. Un estremo opposto è costituito dall'archivio riguardante la fisica del Los Alamos National Laboratory, reperibile all'indirizzo di rete xxx.lanl.gov, che ha molte copie sparse per il mondo (per es., una è in Italia, all'indirizzo xxx.sissa.it, della Scuola Internazionale Superiore di Studi Avanzati). Esso raccoglie articoli liberamente inviati dagli autori, di norma prima della loro eventuale comparsa su riviste scientifiche, una percentuale dei quali non sarà mai pubblicata. L'accesso ai testi è completamente libero; tutte le procedure di ricezione e archiviazione sono automatiche e le modeste spese di gestione sono coperte da finanziamenti pubblici. È interessante notare che da questo archivio si possono scaricare gratuitamente gli stessi articoli che, una volta pubblicati su rivista, sono distribuiti a pagamento (in forma cartacea o elettronica) dalla casa editrice.
La seconda metà del Novecento è stata, inoltre, caratterizzata dall'emergere di una preoccupante crisi dei rapporti tra scienza e società, nel senso che gli sviluppi scientifici e le applicazioni tecnologiche sono stati progressivamente percepiti come forieri di rischi per la salute umana e l'ambiente. A ciò ha contribuito il diffondersi di una critica politica che tende a confondere scienza e tecnologia, ossia di un movimento di pensiero che, di volta in volta, ha giudicato l'interesse militare per la ricerca e le innovazioni tecnologiche, la commercializzazione delle ricadute applicative della ricerca e gli abusi o le frodi da parte di scienziati come la dimostrazione di una pericolosità intrinseca dell'impresa scientifica.
In breve, l'ideale della scienza al servizio del bene comune, che ha favorito il progresso scientifico degli ultimi 200 anni, è entrato in crisi con il coinvolgimento diretto degli scienziati nelle guerre, nella costruzione delle armi atomiche e negli abusi sperimentali sull'uomo. Negli ultimi decenni la suddetta crisi è stata alimentata dalle ricadute commerciali delle tecnologie biogenetiche impiegate nell'agricoltura e da particolari sviluppi tecnici e applicativi delle diagnosi e delle terapie geniche, ma ha raggiunto una fase di grande intensità in relazione alle potenzialità delle tecnologie di ingegnerizzazione dei tessuti animali e umani per il trattamento delle malattie cronico-degenerative. La possibilità di effettuare il trasferimento nucleare (clonazione) e di sperimentarla con embrioni per acquisire nuove conoscenze e sviluppare terapie cellulari è stata al centro di controversie etico-religiose a partire dal 1997-1998.
I sondaggi sulla percezione della scienza e della tecnologia nel mondo occidentale, che sono diventati una pratica sistematica nell'ultimo decennio nel Novecento, registrano un interesse elevato per la scienza e aspettative ottimiste per le ricerche volte a migliorare la salute ma anche crescente sfiducia e sospetto. La sfiducia riguarda soprattutto gli scienziati, che nel corso della seconda metà del secolo appena concluso hanno perso quell'aura di autorevolezza e di intangibilità di cui avevano goduto i protagonisti del progresso scientifico-tecnologico nell'Ottocento. Il fenomeno crea uno stato di apprensione negli scienziati stessi e in quei politici che sono consapevoli del fatto che dagli avanzamenti della scienza e della tecnologia dipendono oggi il mantenimento e il miglioramento delle condizioni di vita dell'uomo, cioè il progresso sociale ed economico.
La crisi nei rapporti tra scienza e società si è manifestata in modo eclatante soprattutto rispetto alla percezione pubblica delle biotecnologie. I sondaggi mostrano che, particolarmente in Europa, l'atteggiamento dell'opinione pubblica verso le principali applicazioni dell'ingegneria genetica dipende soprattutto da considerazioni sull'utilità e la moralità, meno dalla percezione dei rischi; gli stessi sondaggi rilevano che c'è una crescente sfiducia nelle capacità delle istituzioni nazionali di regolamentare gli sviluppi applicativi della biotecnologia. In particolare, i cittadini europei non sono disposti ad accettare i rischi della nuova biotecnologia, quando non vedono alcun beneficio immediato o percepiscono l'insorgere di seri problemi morali. Le riserve morali riguarderebbero peraltro particolari applicazioni della biotecnologia e non le tecniche in quanto tali, con aspettative ottimistiche per le applicazione mediche (test genetici e produzione di farmaci). Il sostegno o l'opposizione alla biotecnologia dipenderebbe in modo significativo dall'età, dal sesso, dall'istruzione e dal grado di conoscenza.
Nei paesi più industrializzati, dove sono più elevati gli investimenti in ricerca e innovazione, le istanze politico-culturali, pubbliche o private, legate al mondo scientifico e tecnologico hanno promosso la divulgazione scientifica con l'obiettivo di contrastare la crisi nei rapporti tra scienza e società, considerata il prodotto di una diffusa carenza nella comprensione dei contenuti e dei metodi della scienza. In realtà, l'assunto secondo il quale più conoscenza scientifica comporterebbe automaticamente un atteggiamento più disponibile e ottimistico verso gli avanzamenti scientifici e gli sviluppi tecnologici non trova conferme, né si può dimostrare che la domanda di informazione scientifica, rilevata da tutte le indagini, implichi un desiderio di conoscenza.
In ogni caso, negli ultimi decenni la divulgazione scientifica è diventata un aspetto essenziale della produzione culturale nella maggior parte dei paesi sviluppati, e in modo particolare negli Stati Uniti, in Canada, in Gran Bretagna, in Australia, in Germania, in Francia e in Italia. Negli ultimi vent'anni sono cresciuti quasi esponenzialmente nel mondo i musei scientifici e i science center (a parte l'Italia, dove il primo science center funziona a Napoli solo dal novembre 2001), è aumentata la produzione editoriale, sono nati e proliferati programmi o addirittura canali televisivi dedicati alla divulgazione scientifica, si sono costituite associazioni che la promuovono a livello nazionale e internazionale e, ultimamente, è esplosa l'offerta di website a essa dedicati.
Al di là degli abusi e degli scandali nei quali gli scienziati sono stati direttamente coinvolti, va detto che i ricercatori hanno probabilmente contribuito a mantenere e a peggiorare il clima di diffidenza che li circonda anche per via del loro stile di comunicazione, spesso contraddittorio e carente. In primo luogo, alcune cause ‒ non ultima, un progressivo impoverimento culturale della loro formazione ‒ hanno fatto diminuire negli scienziati l'interesse a comunicare; d'altra parte, nella comunicazione essi risultano spesso inefficaci, mentre la trasparenza e la disponibilità al confronto è diventata sempre più un valore deontologico trasversale a tutte le professioni.
Un'articolata inchiesta del Science and Technology Committee della House of Lords mostra che una delle cause della crisi di fiducia nella scienza è la crescente difficoltà nel quantificare e comunicare la natura delle incertezze e dei rischi associati alla ricerca scientifica e alle sue applicazioni tecnologiche. Nelle moderne società democratiche, osserva il rapporto, la scienza, come qualsiasi altra attività sociale, ignora a proprio rischio e pericolo gli atteggiamenti e i valori dei cittadini; dialogare con il pubblico non deve essere percepito come una restrizione della libertà di ricerca bensì come il modo di garantirsi una 'licenza di praticare' la scienza. Tra gli obiettivi che il rapporto identifica per migliorare le relazioni tra scienza e società vi sono una massiccia 'alfabetizzazione scientifica', ossia la diffusione di una 'scienza per la cittadinanza' attraverso un'azione a livello dei docenti, e l'adeguamento dei curricula scolastici, nonché un atteggiamento aperto e positivo nella comunicazione con i media.
Il dibattito sui limiti della scienza ‒ in un momento in cui gli stessi scienziati stanno passando da una 'ideologia del progresso' a una 'ideologia del limite' ‒ deve tenere conto che, se è vero che le istanze della ricerca scientifica e il suo linguaggio si distaccano sempre più dai problemi della gente comune, è altrettanto vero che i meccanismi che dovrebbero fare da collegamento si dimostrano fortemente inadeguati. Tra l'altro la pessima tendenza a privilegiare nell'insegnamento e nella comunicazione la semplificazione dei problemi può accrescere, invece di ridurre, l'incomunicabilità dei contenuti della scienza. è necessario quindi coinvolgere gli scienziati nella costruzione di percorsi comunicativi e narrativi, nella costruzione di modelli, analogie e metafore realistici che non sacrifichino eccessivamente il contenuto scientifico essenziale sull'altare di una comunicazione più agevole.
I richiami agli scienziati perché svolgano un ruolo più attivo nel dibattito pubblico sono sempre più frequenti e tuttavia la discussione non sembra per il momento attribuire molta importanza alle dimensioni culturali dell'impresa scientifica, né ci si domanda se il modo in cui oggi vengono formati i ricercatori risponda alle istanze comunicative emergenti. Probabilmente servirebbe un'azione volta a educare all'importanza intrinseca della ricerca fondamentale. Nelle controversie pubbliche ma, soprattutto, nella formazione dei ricercatori e nell'insegnamento delle scienze, in modo particolare di quelle biologiche, dovrebbero essere affrontate anche questioni basilari, come il significato che le nuove conoscenze e metodologie assumono rispetto al contesto più generale e tradizionale della biologia e della medicina. Inoltre, il processo formativo dovrebbe in qualche modo aiutare i ricercatori a rivalutare la portata culturale di un metodo scientifico che ci consenta di superare teorie e concetti sbagliati sulla natura umana e sui fattori che ne condizionano la salute e la malattia ma, anche, a riacquistare l'orgoglio di far parte di una comunità che riconosce un valore 'eticamente' fondante alla trasparenza e all'obiettività. Sarebbe altresì utile affrontare il problema dell'origine delle strumentalizzazioni e degli abusi della scienza, da cui emerge come essi siano stati causati storicamente da incompetenze politico-istituzionali, da ambizioni personali o da distorsioni interpretative prodotte da ideologie che manipolavano, anche con l'aiuto degli scienziati, gli elementi di incertezza che permangono in ogni forma di categorizzazione umana.
Il mondo scientifico comincia ad accorgersi che i processi di contestualizzazione (implicazioni e applicazioni) stanno trasformando lo statuto sociale della scienza, che da 'conoscenza affidabile' sta diventando 'conoscenza socialmente robusta'. Questo significa che la scienza non può limitarsi a misurare la propria validità all'interno del laboratorio; essa deve essere valida anche all'esterno, magari coinvolgendo esperti che non siano scienziati di professione. Proprio grazie al coinvolgimento della società la scienza correrà meno rischi di essere contestata, come invece accade quando si presenta solamente quale conoscenza affidabile.
I saggi raccolti in questa Sezione e che completano un'opera di grande respiro come la Storia della scienza non intendono né presentare una sintesi storica delle vicende scientifiche che hanno caratterizzato gli ultimi decenni del Novecento, né tanto meno proporsi come una conclusione. è assai arduo, se non impossibile, fare storia di un passato a noi prossimo; per questo manca il necessario distacco prospettico che possa restituirci mutamenti concettuali, teorie, metodi sperimentali nella collocazione corretta a partire dalla quale lo storico avvia le proprie ricostruzioni. Inoltre, perché si possa fare storia di eventi ancora relativamente vicini mancano sia le documentazioni d'archivio, senza le quali nessuna storia è possibile, sia una tradizione storiografica che consenta di porre a confronto strategie interpretative e impostazioni metodologiche diverse. In mancanza di tutto ciò, alla storia si possono sostituire con piena dignità o le testimonianze dei protagonisti ‒ documenti spesso preziosissimi per gli stessi storici ‒ oppure una riproposizione cronologica dei fatti e degli eventi maggiormente significativi, affidati al lettore nella loro sintetica e rigorosa enunciazione. Coerentemente con questa posizione, la prima parte del presente volume riporta la cronologia scientifica dal 1941 al 2000.
D'altro canto, sarebbe davvero privo di senso proporre alcune decine di saggi su temi di frontiera dell'odierna ricerca scientifica come un'ipotesi di conclusione di un itinerario complesso e ricco di fascino che ripercorre culture e forme di conoscenze dell'uomo nella sua storia millenaria. Sarebbe privo di senso perché, se questa fosse davvero la nostra intenzione, i temi prescelti dovrebbero essere in grado di esaurire la complessità di un dominio entro il quale si sviluppa la ricerca scientifica contemporanea o, almeno, quei temi dovrebbero avere una forte e incontrovertibile valenza paradigmatica. Così non può essere e così quindi non è.
Preferiamo considerare i saggi qui raccolti non tanto l'esito di un tentativo di affidare a scienziati militanti il compito, peraltro denso di insidie, di trasformarsi in storici del loro specifico ambito disciplinare, quanto piuttosto alcune riflessioni su temi di frontiera della ricerca scientifica odierna, con l'intento di fornire al lettore un'idea di quello che viene comunemente detto lo stato dell'arte. È evidente quindi che la stessa scelta degli argomenti trattati è largamente arbitraria e riflette le inclinazioni culturali e le stesse preferenze scientifiche di quanti hanno collaborato alla progettazione e alla realizzazione di questo volume. Potremo anche dire che il lemmario definitivo risente di circostanze casuali: non ci sono, per esempio, alcuni temi ai quali avevamo pensato, perché gli autori contattati hanno dichiarato la loro indisponibilità. Non ci è stato possibile, e questo soltanto per motivi di spazio, aprire il nostro lemmario alle cosiddette scienze umane e a nuovi ambiti disciplinari nei quali si registrano interazioni forti tra queste e i settori tradizionali delle scienze della Natura.
Il lettore cui intende rivolgersi l'opera non è uno specialista; per questo agli autori abbiamo chiesto di proporre nei loro saggi una sintesi critico-divulgativa che tenesse il più possibile conto degli ostacoli oggettivi che un simile lettore avrebbe potuto incontrare. Starà ovviamente a ciascuno valutare se e in quale misura tale obiettivo sia stato effettivamente raggiunto. La specializzazione dei linguaggi scientifici e la loro progressiva tendenza verso una sempre più accentuata formalizzazione sono requisiti necessari e spesso riflettono la complessità di ciò che è l'oggetto stesso della conoscenza. In molti casi, tali linguaggi costituiscono un limite per la divulgazione, anche quella di alto livello; un limite che, se superato, ci porta necessariamente alla banalizzazione concettuale o alla costruzione di immagini caricaturali di modelli e teorie. Ebbene, abbiamo cercato di non superare mai tale limite; ma non abbiamo voluto neppure eliminare alcuni argomenti semplicemente perché troppo difficili.
Concludiamo con un augurio: che tra qualche decennio anche questi saggi possano diventare parte della storia della scienza e aiutino chi li leggerà a comprendere quale era il grado di consapevolezza che gli scienziati avevano di ciò che andavano facendo all'inizio del terzo millennio ma, soprattutto, che consentano di cogliere i limiti della loro attuale prospettiva scientifica e filosofica.