Cosmo
"Quid ergo est tempus?
Si nemo ex me quaerit, scio:
si quaerenti explicare velim, nescio"
(sant'Agostino)
Frecce del tempo
di Alfonso Cavaliere
12 febbraio
La NASA presenta le immagini ottenute dalla sonda WMAP (Wilkinson microwave anisotropy probe) lanciata nel giugno 2001, che riproducono l'Universo primordiale a 380.000 anni dal big-bang. Le ricerche sono state coordinate da Anne Kinney, della NASA, e Charles L. Bennett, del Goddard Space Flight Center.
Tempi del cosmo
La mappa del cielo primordiale pubblicata nel febbraio 2003 dal team che analizza i dati dal satellite WMAP mostra lo stato dell'Universo 13,7 miliardi di anni fa: un inferno totalmente alieno, alla rovente temperatura di 3000 K, quasi indifferenziato e uniforme, più levigato di una palla di biliardo poiché contenente solo increspature minute al livello medio di qualche unità su 100.000.
L'immagine può essere confrontata con quella di un grosso ammasso di galassie ottenuta con il telescopio spaziale Hubble, che rappresenta un buon campione dell'Universo vicino, con le sue basse temperature medie e grosse fluttuazioni tra pieni e vuoti, con una quantità enorme di strutture complesse di fantasiosa ricchezza. E bisogna ancora pensare che ognuna di quelle galassie splende perché contiene centinaia di miliardi di stelle, molte delle quali attorniate da sistemi planetari, alcuni (pochi in percentuale, ma numerosissimi in assoluto) contenenti altre Terre, forse con dolcezza ambientale e complessità chimica adatte a ospitare la vita. Il confronto mostra con evidenza visiva quanto radicale sia stata l'evoluzione dell'Universo dal passato al presente, durante 13,7 Ga (miliardi di anni). Tempi estremi e disumani? Dopotutto, solo tre volte più lunghi dell'età di 4,5 Ga che conta la familiare Terra.
Ministoria del tempo
Esiste dunque una ben definita direzionalità nello sviluppo dell'Universo, una 'freccia cosmica del tempo'. 'Freccia del tempo' è la metafora coniata dall'astrofisico Arthur Stanley Eddington nel 1929 per rappresentare l'asimmetria tra passato e futuro - cioè nel tempo - mostrata da molti aspetti del mondo che ci circonda. Per es., la nostra memoria e le nostre attese ovviamente distinguono il passato dal futuro, la nascita dalla morte. In ambiti più oggettivi, la termodinamica si attende che ogni sistema lasciato a sé stesso e non rifornito di energia ('isolato') evolva verso stati con meno strutture e meno differenze di temperatura, quindi più semplici e più prossimi all'equilibrio interno. D'altra parte, geologia e storia documentano la crescita e la stratificazione di strutture, informazioni e complessità dal livello sociale a quello planetario. L'evoluzione del cosmo durante 13,7 Ga porta da indifferenziata semplicità a ricchissima complessità.
Esistono dunque diverse frecce del tempo: la freccia psicologica, la freccia termodinamica, la freccia storica, la freccia cosmica. E pongono problemi difficili: come siano compatibili, se siano correlate, quale sia la loro origine. Questioni ardue, controverse e solo in parte risolte, che percorrono 2500 anni di filosofia e 350 di scienza formalizzata. Infatti, la dialettica filosofica fra divenire ed essere iniziò fra il 6° e il 5° secolo a.C. con Eraclito e Parmenide. Le prime riflessioni esplicite e moderne sulla natura del tempo sono rintracciate dagli storici nel Libro XI delle Confessioni di sant'Agostino (circa 400 d.C.). La matematica delle variazioni nel tempo (le 'flussioni') fu fondata da Isaac Newton in competizione con Gottfried Wilhelm von Leibniz nella seconda metà del Seicento. La termodinamica cominciò a prendere atto con Sadi-Nicolas-Léonard Carnot, nel 1824, della tendenza irreversibile dei sistemi isolati a evolvere verso l'equilibrio, cioè verso il degrado e l'uniformità; e con Ludwig Boltzmann, attorno al 1870, ne affrontò la comprensione e il calcolo in termini di moti e interazioni ('collisioni') delle particelle costituenti. Boltzmann stesso fu acutamente consapevole della grossa lacuna residua fra l'irreversibilità che aveva calcolato e il suo realizzarsi asimmetrico e concorde nel tempo per tutti i sistemi isolati e fu duramente coinvolto nella disputa che ne seguì. Nel frattempo (1858), la biologia, con Charles Robert Darwin e Alfred Russel Wallace, aveva già cominciato a sintetizzare le traiettorie delle specie con la metafora 'evoluzione'. Che la metafora si applicasse con grande successo anche alla descrizione dell'Universo fu compreso a partire dal 1965 dall'astrofisica quando venne scoperta la radiazione cosmica di fondo, che fu immediatamente interpretata come residuo di tempi primordiali nel quadro del modello di 'big-bang'. Nel febbraio 2003 il satellite WMAP ha appunto mappato questa radiazione che proviene dall'Universo primordiale, 13,7 miliardi di anni-luce lontano nello spazio e 13,7 miliardi di anni indietro nel tempo. È utile sottolineare che gli strumenti astronomici registrano informazione che parte da sorgenti a distanza D e viaggia con la velocità della luce c = 300.000 km/s e che pertanto è stata prodotta al tempo passato t52D/c. Essi sono dunque vere macchine del tempo che rappresentano come vivo e presente il remoto passato dei mondi lontani.
Evoluzione cosmica
All'epoca mappata da WMAP la condizione dell'Universo era molto vicina all'equilibrio termodinamico. Lo ribadisce la distribuzione in energia dei fotoni della radiazione di fondo: il risultato delle misure del satellite COBE (Cosmic background explorer) è una perfetta distribuzione di 'corpo nero' a 2,73 K. Sappiamo dalla fisica che un tale 'spettro' è caratteristico della radiazione in equilibrio termico con la materia. Ma questa proprio non sembra essere la situazione dell'Universo vicino e attuale; infatti è facile calcolare che esso è troppo rarefatto per l'equilibrio, poiché la sua densità media è di n,1027 particelle/cm3; perciò il tempo tfe,1023/n Ga tra due successive interazioni dei fotoni con gli elettroni risulta 103 volte più lungo di 13,7 Ga. Dunque, le interazioni importanti per l'equilibrio non possono essere attualmente in corso, ma devono semmai essere avvenute in passato in uno stato molto più denso dell'attuale.
Questo è quanto suggerisce indipendentemente l'espansione cosmica scoperta da Edwin Powell Hubble nel 1929, per cui le distanze fra le galassie vanno aumentando, in modo proporzionale a un fattore di scala che cresce col tempo: D~R(t). A questa constatazione geometrica dobbiamo aggiungere una ipotesi fisica. Tra quelle fino a oggi considerate si è dimostrata vincente quella più semplice, ovvero che quasi 13,7 Ga orsono sia sostanzialmente terminata la creazione di particelle e di fotoni e che da allora il loro numero si sia sostanzialmente conservato; così diventa ovvio che la densità n deve decrescere come 1/R3. Quindi l'Universo passato doveva essere più piccolo, le protogalassie più vicine tra loro e le densità molto maggiori di quelle attuali: l'equilibrio era obbligato quando R era solo un millesimo della scala attuale Ro. Sono realistici questi valori? Da Hubble in poi i nostri strumenti hanno guardato sorgenti sempre più distanti, quindi sempre più indietro nel passato, e abbiamo misurato con precisione la scala dell'Universo R(t) a tempi sempre più remoti. Queste misure sono dirette, dal momento che la lunghezza d'onda delle radiazioni elettromagnetiche (dopotutto, la particolare distanza fra due successive creste d'onda) si dilata anch'essa durante il viaggio come Ï~R(t); per questo motivo la luce emessa dalle galassie più lontane è più rossa: proprio questo sistematico spostamento verso il rosso (redshift z definito come ¢Ï/Ï, da cui 1+z~1/Ï) è stato identificato e misurato da Hubble fin dal 1929. All'inizio del 2003 la sorgente più lontana identificata è il quasar J1148+5251 con un redshift z56,4; quindi al momento dell'accensione di questa 'prima luce' l'Universo aveva una dimensione molto inferiore, pari a R(t)5Ro/7,4 e la densità media attorno a quel quasar era n5n0(7,4)3, cioè circa 400 volte maggiore di quella attuale attorno alla nostra galassia. Inoltre, l'espansione dell'Universo raffredda i fotoni e le particelle; per effetto del redshift l'energia media dei fotoni E5hÓ5hc/Ï scala come 1/Ï~1/R(t) e definisce una temperatura T,3 hÓ/k~1/ R(t) (si è usata h per la costante di Planck e k per la costante di Boltzmann). In definitiva, in tempi remoti le energie per particella erano così alte da lasciare impronte riconoscibili anche nel mondo attuale. Una di queste impronte è proprio lo spettro di corpo nero della radiazione cosmica: esso deve essere stato prodotto quando fotoni ed elettroni erano in rapida interazione, quindi in ottimo equilibrio termodinamico, in epoche in cui l'Universo era almeno 103 volte più piccolo di oggi, 103 volte più caldo (quindi a temperature T,3000 K) e con densità miliardi di volte superiore a quella attuale. In queste condizioni l'Universo era uniformemente brillante come la superficie di una stella attuale, ma in realtà era privo di stelle, di strutture e di differenziazioni. Da allora, l'espansione rese le interazioni così rare da lasciare i fotoni sostanzialmente liberi di viaggiare verso di noi, conservando come impronta caratteristica del passato equilibrio termodinamico la forma spettrale di corpo nero, ma con temperatura raffreddata dall'espansione fino al valore attuale To52,73K. Così la misura dei redshift e quella della radiazione cosmica provano in modo diretto che l'Universo ha subito una drastica evoluzione, passando nel tempo dal completo equilibrio al profondo disequilibrio attuale. Evoluzione drastica, come si intuisce considerando il sinergismo di due fattori. In primo luogo, la radiazione di corpo nero alla temperatura attuale To52,73 K comporta una densità di fotoni nf520 T3.400 cm23 , quindi un mare di fotoni rispetto alle particelle materiali con un rapporto numerico nf/n,109 che si è conservato. In secondo luogo, l'energia media dei fotoni era più grande in passato del fattore T/To5Ro/R(t). Ne segue che, quando l'Universo aveva circa 350.000 anni, la temperatura attraversò la soglia dei 3000 K e le interazioni fotone-elettrone cominciarono a rarefarsi. Avvenne allora un drastico cambio di stato fisico: sopra la soglia, la materia era in equilibrio termodinamico con la radiazione ad alta temperatura, in condizioni simili a quelle che oggi esistono solo all'interno delle stelle; essa era tenuta completamente ionizzata (nel quarto stato di 'plasma' della materia) dalle interazioni intensissime con il mare di fotoni energetici, anzi ne era totalmente dominata anche per quanto riguarda temperatura e dinamica. Con il raffreddamento al di sotto dei 3000 K, il plasma cosmico si disaccoppiò dai fotoni ricombinandosi in gas neutro, prevalentemente di idrogeno; questo, non più disperso dalla radiazione, poté finalmente sviluppare sotto l'azione della gravità le condensazioni da cui sono originate le galassie e si sono formati pianeti e stelle. In conclusione, dopo le scoperte dell'espansione di Hubble e della radiazione di fondo, la strumentazione moderna mostra in diretta dalle profondità dello spazio-tempo una spettacolare evoluzione non solo geometrica (espansione) ma anche di stato fisico (dall'equilibrio informe alla strutturata complessità). La metafora 'evoluzione' di origine biologica si applica con straordinario successo all'Universo come un tutto.
La freccia cosmica del tempo
La ricostruzione dell'Universo primordiale è basata su semplici leggi di conservazione, come quella del numero di particelle sopra usata, e sull'andamento espansivo della scala cosmica R(t) fin dal lontano passato. Questo è osservato direttamente con i redshift di sorgenti lontane fino a z56,4 ed è osservato a z,103 attraverso la radiazione di fondo. Le abbondanze di elementi leggeri come l'elio estendono questa conoscenza sperimentale sino a z,109. Infatti a T,109 K e all'epoca cosmica di 3 minuti, il bagno fotonico divenne abbastanza debole da lasciare che i protoni si unissero con i neutroni, primo scalino per la formazione di nuclei atomici un po' più complessi dell'idrogeno: si formò allora la dotazione di elio del materiale prestellare che ancora oggi misuriamo. Per estrapolare l'espansione ancora più indietro ci si deve basare sulla relatività generale. Infatti, nelle condizioni di isotropia e omogeneità sempre più finemente soddisfatte in passato, le equazioni relativistiche prevedono che R(t) sia instabile e continuamente crescente (cioè con derivata dR/dt.0) come oggi. Esse però prevedono anche che l'espansione sia stata frenata dalla attrazione gravitazionale esercitata dal contenuto dell'Universo su sé stesso; dunque il tempo di espansione Ù~1/w(t)1/2 era più breve nel passato, quando la densità di energia w(t)5nE era più grande come 1/R3 (o 1/R4 quando dominava la radiazione). Ne segue che la scala R(t) guardata nel passato precipita letteralmente verso il valore zero: una vera e propria origine ben definita dello spazio e insieme del tempo. Inizialmente l'espansione è stata fulminea, superesplosiva, da cui appunto il nome di modello del big-bang. Stephen W. Hawking e Roger Penrose hanno dimostrato negli anni Sessanta che un inizio definito è una proprietà generale dei vari modelli di Universo, per i quali valgano relatività generale e carattere attrattivo del contenuto dell'Universo. Si sa oggi che la prima condizione è revocabile solo a 10243 s dall'inizio formale dei tempi, mentre la seconda è molto probabilmente revocata attorno a 10234 s, dando luogo a un breve periodo di espansione fortemente accelerata, detta 'inflazionaria'; da quell'epoca il big-bang canonico fornisce una buona descrizione globale e richiede l'effettivo raggiungimento di densità estreme e di temperature altissime, oltre 1027 K. In definitiva, osservazioni e misure danno un solido contenuto sperimentale a quello che si soleva chiamare Principio cosmologico: da ogni galassia e in ogni direzione, l'Universo mostra la stessa struttura e la stessa storia. Ciò comporta una definizione operativa di tempo cosmico: se la storia cosmica costituisce una sequenza uguale per osservatori in ogni galassia, essa può fornire un orologio per stabilire l'epoca universale. In pratica, la sequenza di valori presi dalla temperatura della radiazione cosmica, così com'è misurata da noi o su una galassia lontana, determina l'epoca cosmica univocamente; se mai in futuro l'umanità tenterà di comunicare con civiltà extragalattiche, si localizzerà nel tempo con un messaggio del tipo: "noi qui parliamo al tempo cosmico di 2,72 K". Questo tempo cosmico universale risulta compatibile con il tempo 'flessibile' dipendente dallo stato di moto, introdotto da Albert Einstein con la relatività ristretta, e con il tempo 'congelato' in presenza di gravità forte, introdotto dalla relatività generale; tale compatibilità vale per una categoria privilegiata ma importante di osservatori a cui appartiene anche la Terra: quelli che rispetto alla radiazione di fondo hanno velocità piccola in confronto a c e guardano lontano da sorgenti di gravità forte come i buchi neri. Ha quindi senso parlare di una freccia cosmica del tempo, lungo cui il fattore di scala aumenta (dR/dt.0), che si lascia alle spalle l'origine R〈0 ed è scandita dal continuo decrescere di quantità direttamente e precisamente misurabili anche nel nostro intorno locale, come la temperatura della radiazione cosmica.
La freccia storica
Lungo la freccia cosmica aumenta la complessità dell'Universo, con degli scatti: infatti essa è punteggiata da una serie di soglie in temperatura o in energia; quando il miscuglio cosmico di particelle in raffreddamento ha attraversato queste soglie, i vari componenti sono andati a uno a uno fuori equilibrio e hanno 'cristallizzato' dal crogiolo cosmico. Per es., sotto la soglia dei 1014 K, i quark si devono essere combinati a formare i protoni e i neutroni di cui è composta l'attuale materia. Alla soglia dei 109 K, protoni e neutroni si sono ricombinati in deuterio e poi in elio. Attorno a T,3000 K il plasma cosmico ha cristallizzato in idrogeno neutro. Infine, liberata dal degradante connubio con la radiazione, la materia ha iniziato la catena di condensazioni gravitazionali di strutture con masse sempre più grandi. Sappiamo ricostruire la catena in notevole dettaglio: le increspature nella mappa WMAP erano i semi delle attuali galassie e dei loro aggruppamenti a decine e a centinaia. I semi avevano densità maggiore della media e sotto l'azione delle forze di gravità interne finirono con il condensare e aggregarsi formando le strutture che ora vediamo (galassie, gruppi e ammassi) e che altre immagini di Hubble mostrano in fasi intermedie.
Il meccanismo sottostante è semplice, ma sottile e generale. L'espansione spinge inesorabilmente fuori di equilibrio i componenti del miscuglio cosmico perché, al calare della densità, i tempi di interazione e scambio energetico tra due componenti a e b, che sono tutti del tipo Ùab~1/n, diventano inevitabilmente più lenti del tempo di espansione Ù~1/(nE)1/2. Dunque, i componenti devono proprio disaccoppiarsi uno a uno, andare fuori equilibrio e cristallizzare dal crogiolo cosmico.
È per questo che durante l'espansione l'evoluzione è andata dal semplice al complesso, dall'inferno indifferenziato e totalmente alieno dell'equilibrio termodinamico e della simmetria verso il mondo strutturato, organizzato, complesso e asimmetrico che ci è familiare. Così la quantità di informazione contenuta nell'Universo aumenta. Se chiamiamo freccia storica quella che punta verso la crescente informazione, essa coincide con la freccia cosmica.
Le frecce termodinamiche
Esiste altresì un altro tipo di freccia del tempo, quella termodinamica, che possiamo vedere in azione in ogni momento nel nostro ambiente terrestre, perfino sulle nostre persone. Questa freccia descrive la transizione che compiono gli oggetti complessi lasciati a sé stessi o non sufficientemente riforniti di energia, da stati organizzati e ricchi di strutture e di differenze di temperatura verso stati sempre più semplici, uniformi, disordinati. Un esempio comune è quello costituito da un bicchiere d'acqua tiepida contenente un blocchetto di ghiaccio, il quale in poco tempo fonde e dà luogo a sola acqua a temperatura uniforme, un poco più fredda di prima; altri esempi, altrettanto comuni, ma che sentiamo ben più drammaticamente, sono quelli legati alla morte e alla dissoluzione.
La termodinamica sa quantificare queste transizioni per mezzo dell'entropia, che misura il disordine dei sistemi macroscopici. Boltzmann ha insegnato a calcolare l'entropia come S5k logP in termini del numero P di configurazioni microscopiche (costituite, per es. in un gas, dal complesso di posizioni e velocità delle singole molecole) che sono equivalenti agli effetti macroscopici, se viste a grana grossa. Siamo abituati a constatare continuamente che l'entropia (il disordine) tende a crescere in tutti i cambiamenti dei sistemi reali abbastanza isolati dal mondo esterno, che passano così a stati più probabili perché più semplici e realizzabili con un numero maggiore di configurazioni microscopiche: il salto ¢S è positivo. Il cambiamento si arresta e S è massima quando si raggiunge lo stato di massima semplicità e uniformità compatibile con i vincoli: questo è l'equilibrio termodinamico. L'abitudine fa sembrare scontato che tutte le frecce termodinamiche indipendenti dei vari sistemi parziali isolati siano concordi, cioè che le evoluzioni verso l'equilibrio avvengano nello stesso verso: se in qualunque sistema lo stato 2 segue lo stato 1 nel verso dal passato al futuro, ci attendiamo che esso sia più disordinato e quindi che S2.S1. Tuttavia questo comportamento concordemente asimmetrico nel tempo diventa assai meno banale quando si rifletta che esso deve essere basato sulla dinamica delle singole particelle costituenti, la quale nella fisica classica è simmetrica rispetto ai due versi del tempo (e tale sostanzialmente rimane anche nella versione quantistica). Anzi, lo stesso Boltzmann fu vessato da questo problema, che ha continuato a generare molte controversie e a produrre una vasta mole di letteratura scientifica (Davies 1974, 1996). Anche se la questione non è esaurita, sono state raggiunte alcune conclusioni. Un primo progresso consiste nel separare il problema della irreversibilità (crescita dell'entropia) da quello della asimmetria temporale. Se per es. si considera un sistema isolato in equilibrio, è vero che S rimane all'incirca costante e vicina al suo massimo; però un'indagine più approfondita rivelerebbe che essa ha occasionalmente e temporaneamente fluttuazioni verso il basso, di ampiezza piccola nella maggioranza dei casi. In concreto, non dovremmo meravigliarci di trovare ogni tanto in un bicchiere di acqua di fusione la riformazione di qualche cristallo di ghiaccio, accompagnato da un po' di acqua leggermente più calda. Invertendo la formula di Boltzmann si vede che la probabilità P5e¢S/k di una simile fluttuazione con ¢S,0 decresce molto rapidamente quando cresce il modulo di ¢S. Perciò se esaminiamo il sistema in un istante casuale e lo troviamo in uno stato con ¢S non nullo, è molto più probabile che esso si trovi in un punto di minima S piuttosto che in una fase intermedia di discesa verso (o risalita da) un valore ancora minore. Ma a partire da un minimo, S deve risalire sia nel verso positivo sia in quello negativo di t: in altre parole, il comportamento irreversibile è ancora simmetrico nel tempo. Un secondo punto importante è che l'argomento probabilistico è significativo solo se osserviamo il sistema in un istante casuale; non si devono scegliere condizioni particolari in cui si disponga di vasta informazione sulla configurazione microscopica e si possa cogliere uno stato eccezionale delle correlazioni tra particelle, una improbabile ma possibile cospirazione del sistema per andare verso valori di S ancora minori. Questo ribadisce l'importanza delle condizioni iniziali nell'assicurare il comportamento irreversibile: in effetti, nelle derivazioni formali (che vanno sotto il nome di teorema H) si fa uso tecnico della condizione che lo stato microscopico iniziale sia sostanzialmente casuale e privo di correlazioni troppo forti. In modo più intuitivo si può considerare la relazione di opposizione fra entropia S e informazione I: l'aumento di entropia quantifica l'aumento di disordine, la cancellazione di strutture, la riduzione del contenuto di informazione; in breve, ¢S52¢I. Se si potesse o volesse considerare un sistema isolato macroscopico con massa attorno al grammo in tutto il dettaglio delle sue 1023 o più particelle, si conserverebbe ovviamente tutta l'informazione possibile su di esso; ma dal momento in cui si decide di considerarne solo gli aspetti medi e macroscopici, ci si deve rassegnare a perdere gradualmente l'informazione associata a strutture e differenziazioni. È come se questa informazione, per effetto delle 'collisioni' tra le particelle costituenti, defluisse tra due vasi comunicanti: dallo stretto serbatoio delle poche variabili macroscopicamente osservabili verso il grosso serbatoio degli stati microscopici delle particelle costituenti, a condizione che quest'ultimo sia inizialmente abbastanza vuoto.
Il ruolo primario delle condizioni iniziali nel determinare il comportamento asimmetrico è stato ribadito in una linea di pensiero, iniziata da Erwin Schrödinger e Hans Reichenbach e oggi largamente - sebbene non unanimemente - condivisa. Essa banalizza il comportamento asimmetrico notando che i sistemi reali non sono teorici sistemi isolati ma piuttosto branch systems (sistemi a diramazione), che vengono formati in un istante definito e fuori equilibrio (per es., lo sperimentatore mette un cubo di ghiaccio nel bicchiere d'acqua), in uno stato macroscopicamente strutturato ma microscopicamente non particolarmente selezionato; diventa allora ovvio che l'entropia debba aumentare nell'unico verso temporale disponibile, verso il futuro. Per ciò che riguarda i sistemi naturali, essi di fatto si diramano da un ambiente più vasto, che già si trova in disequilibrio e aumenta la sua entropia anche per il solo fatto di secernere, per così dire, un sistema parziale a bassa entropia. Finché l'ambiente più vasto rimane in disequilibrio, esso sincronizza con il verso del tempo in cui la sua entropia cresce quello in cui devono evolvere i vari sistemi parziali che esso genera in condizioni di relativamente bassa entropia; a sua volta, esso si dirama da un ambiente più vasto in analoghe condizioni. Così l'ambiente terrestre si dirama dal Sistema solare e questo a sua volta dalla Galassia, in una catena che rimanda in ultimo al comportamento dell'intero Universo. A titolo di notizia, si può aggiungere che questi andamenti sono consistenti con la visione cosmogonica attuale che prevede una generazione gerarchica di strutture con masse progressivamente maggiori e con livelli di entropia crescenti eS/k~T/n2/3~M2/3 ; nel calcolo dell'entropia oggi si include il contributo della materia oscura non collisionale che domina le strutture massive come grosse galassie, gruppi e ammassi.
Frecce coerenti: una soluzione
Mentre i sistemi locali evolvono verso uniformità e semplicità, l'Universo come un tutto evolve al contrario, verso strutturazione e complessità: un paradosso e una difficoltà seria? La soluzione richiede di considerare la caratteristica dei sistemi naturali a grandi scale, fino a quella dell'intero Universo. Questi sono governati dalla forza gravitazionale, la quale è a lunga portata e ha un effetto cumulativo al crescere della massa; sebbene la sua intensità sia assai fievole, sulle grandi scale essa domina le interazioni forte e debole che sono a breve portata e anche quella elettromagnetica, che è pure a lunga portata ma si satura rapidamente sommando gli effetti di cariche di segno opposto. Per questa sua caratteristica di 'grossolanità' la gravità non discrimina al livello microscopico e alle scale su cui domina permette solo una struttura instabile dello spazio-tempo: collasso o espansione. Per stelle, galassie e loro ammassi la condizione sarebbe di collasso; di fatto, il collasso può essere differito per tempi anche molto lunghi e lascia sopravvivere i sistemi in uno stato metastabile in cui la gravità è equilibrata da pressioni interne. In ogni caso, lo stato terminale sarà il collasso completo nella configurazione di buco nero, come avviene alla fine della vita delle grosse stelle (che danno luogo a buchi neri con masse maggiori di 2 MSole, il doppio della massa del Sole), o alla nascita di un quasar (con masse ,108 MSole) al centro di una galassia. Allora lo spazio-tempo vicino all'oggetto si distorce fortemente e si forma attorno al corpo un 'orizzonte' di raggio 3 M/MSole km, da cui non fuoriescono segnali né alcuna informazione, se non quella relativa a tre sole quantità globali: massa, momento angolare e carica elettrica. Poiché nel collasso sparisce tutta la ulteriore vastissima informazione microscopica relativa alle 1057 particelle che contiene ogni MSole, ci si attende un enorme aumento di entropia dell'oggetto collassato; infatti Jacob D. Bekenstein e Stephen W. Hawking hanno calcolato che tale entropia di carattere gravitazionale vale S/k N,1020 M/MSole per particella. L'enormità di questo valore risalta notando che esso cresce con la massa coinvolta, e confrontandolo con il valore 3,6 per i fotoni della radiazione cosmica e con i valori inferiori a 100 per la materia normale nelle più varie condizioni: dall'aria terrestre, all'interno delle stelle, agli spazi intergalattici.
Sebbene l'entropia gravitazionale nei casi intermedi sia molto difficile da calcolare, si pensa che la gravità al momento della formazione di strutture generi un certo ordine dovuto al confinamento spaziale, ma poi disordini le energie delle particelle e infine distrugga quasi tutta l'informazione quando si scatena nel collasso. Il disordine corrispondente non riguarda esclusivamente il buco nero, ma può essere comunicato all'ambiente; infatti, Hawking ha mostrato che effetti quantistici causano l'evaporazione dei buchi neri, generando un mare di fotoni e particelle in equilibrio, sia pure in tempi che sono lunghissimi per masse di interesse astronomico. In conclusione, gli oggetti autogravitanti che indugiano in uno stato metastabile sono da considerare molto lontani dallo stato di massima entropia e in grosso disequilibrio termodinamico.
Invece, alla scala dell'intero Universo la gravità tende a determinare una singolarità a un tempo definito nel passato e oggi vale una condizione di espansione, con cruciali conseguenze. In primo luogo, l'espansione spinge inesorabilmente fuori di equilibrio e fa cristallizzare i componenti cosmici, come si è visto. In secondo luogo, questi stessi processi di squilibrio conducono ad aumentare (moderatamente) l'entropia cosmica: per es., idrogeno ed elio riprendono a evolvere in nuclei più complessi e a generare entropia all'interno delle stelle; materia e radiazione generano entropia durante il loro disaccoppiamento perché cominciano a raffreddarsi differentemente ma hanno ancora qualche scambio energetico. Tuttavia l'entropia totale rimane di gran lunga inferiore a quella massima che potrebbe risultare riportando in equilibrio tutte le componenti che si sono separate e tutte le strutture che indugiano in equilibri metastabili. Anzi, si può calcolare che la differenza Smax2S è attualmente così grande che - se anche potessimo arrestare oggi l'espansione di Hubble - ci vorrebbero almeno 1014 Ga per cancellarla!
In conclusione, in questa gerarchia di branch systems l'Universo sembra proprio il giusto capostipite: esso è regolato dalle forze gravitazionali incapaci di selezionare informazione microscopica, aumenta la sua entropia nel senso temporale stabilito dall'espansione ma rimane pur sempre in disequilibrio forte, e anzi crescente. Ciò lascia uno spazio sempre maggiore alla formazione di strutture e differenziazioni complesse: il limite superiore alla informazione possibile è dato da I5Smax2S, che rappresenta un limite grande e ancora crescente. Così si ritrova che la freccia storica del tempo è coordinata da quella cosmica e si delinea una sintesi complessiva che può risolvere i paradossi e unificare le evoluzioni. La sintesi considera che le varie frecce del tempo siano sincronizzate da quella cosmica attraverso condizioni iniziali: l'espansione induce la formazione di sempre nuove differenziazioni e strutture macroscopiche e poi le abbandona al loro destino di morte, di equilibrio termodinamico. Nello schema
fenomeni = leggi = condizioni iniziali
se le leggi sono simmetriche nel tempo, si deve rintracciare l'origine dell'asimmetria temporale alle varie scale del mondo reale nell'azione gerarchicamente ricorrente di condizioni iniziali relativamente ordinate rispetto all'ambiente, con un basso contenuto di informazione microscopica.
Problemi aperti
La freccia microscopica
Fino a che punto le leggi di interazione sono realmente simmetriche nel tempo, cioè invarianti per lo scambio di t con 2t (nel gergo fisico, invarianti per l'operazione T)? Lo è certamente l'interazione gravitazionale, come è reso ovvio dalla possibilità non solo di prevedere le eclissi future, anzi le prossime configurazioni planetarie nel Sistema solare, ma anche di ricalcolare con uguale sicurezza quelle passate. L'analogo vale, con una sottigliezza in più, per le interazioni elettromagnetiche. Le 'collisioni' classiche studiate da Boltzmann sono appunto l'effetto schematizzato di queste forze, invariante per T. Invece si è constatato fin dal 1964 che l'analogo non vale per le interazioni deboli. Da qualche anno nella fisica sperimentale e teorica è rifiorito un intenso interesse attorno a questo problema; si misura e si calcola la rottura di invarianza rispetto alla operazione CP nelle interazioni deboli che trasformano i due quark componenti del mesone neutro Ko e della sua antiparticella Ko, e così scambiano i mesoni (effetti simili sono prevedibili in altre particelle). CP è la combinazione della coniugazione di carica C, che corrisponde a scambiare particelle con antiparticelle, e della parità P, che corrisponde a una riflessione speculare; CP è connessa all'operazione T dal teorema di invarianza per la combinazione CPT, che si dimostra valido per tutte le interazioni locali. Violazione di CP implica dunque violazione di T; in altre parole, implica la presenza di una freccia microscopica al livello di interazioni tra particelle.
Si vede che una tale violazione ha due effetti: quello di mescolare stati definiti rispetto a CP di Ko e Ko in una proporzione che si può sondare tramite i loro decadimenti in due mesoni Ð, e quello, più diretto, di variare la frequenza relativa dei decadimenti di Ko e Ko. Le misure dei rispettivi parametri di violazione di CP cadono attorno a 1023 e 1026 (Calvetti-Franzini-Voci 2000) . Ne seguono due conseguenze importanti. La prima riguarda la genesi dei barioni come oggi li conosciamo, poiché la violazione di CP diretta presumibilmente 'contagia' le interazioni unificate a tempi assai primordiali. Nel corso degli ultimi vent'anni è stata studiata l'unificazione delle interazioni forti con quelle elettrodeboli, con transizione a energie dell'ordine di 1014 GeV (corrispondenti a T,1027 K e t,10234 s) verso lo stato a minore simmetria, spezzato in forte 3 elettrodebole. Queste teorie di grande unificazione (GUT) contengono i necessari processi che variano il numero barionico e che dovrebbero essere lievemente asimmetrici fra particelle e antiparticelle proprio a causa di una violazione di CP. L'espansione cosmica manda anche questi processi fuori equilibrio verso l'epoca t,10234 s, mantenendo un numero di particelle e antiparticelle leggermente diverso: una particella di materia su 109 coppie di particelle e antiparticelle. In seguito le coppie si annichilano in raggi γ che si uniscono al mare di fotoni costituenti la radiazione di fondo, mentre la particella spaiata sopravvive, immersa nel mare di fotoni in equilibrio con le coppie prima esistenti. Ne risultano assenza attuale di antimateria primaria e un rapporto nf/n che potrebbe avvicinarsi al valore osservato 109. La seconda conseguenza è che se da una parte la violazione microscopica di T sembra essere essenziale per costituire la materia che conosciamo, dall'altra essa sembra troppo piccola per avere effetti termodinamici importanti; Y. Ne'eman nel 1972 ha calcolato che per invertire la crescita dell'entropia sarebbero necessarie violazioni di CP attorno a 3 1022, valori in ogni caso irrealistici. Curiosamente, ne risulta che la freccia microscopica sarebbe stata essenziale un'unica volta nella storia cosmica, e poi mai piu` rilevante. Questo tema è importante, e meriterebbe di essere ripreso.
Verso l'origine delle frecce
Il successo pieno della unificazione delle frecce del tempo è legato alla comprensione approfondita delle condizioni iniziali del sistema primario-Universo: una ricerca ovviamente impegnativa, con progressi graduali, e un successo forse asintotico. L'epoca attorno a 10234 s dal big-bang canonico è stata esaminata e in parte compresa in termini dello scenario di 'inflazione'. Esso si è imposto per risolvere, tra gli altri, un problema fondamentale riguardante gli orizzonti: nella radiazione cosmica si osservano in eguali condizioni punti del cielo distanti circa 2 gradi, ma essi corrispondono al tempo di ultima interazione fotoni-elettroni a punti così lontani da non poter mai essersi scambiati segnali, e quindi interazioni fisiche equalizzanti densità, temperatura, espansione. Infatti, ogni interazione causale si propaga al massimo con velocità c, di conseguenza attorno a ogni punto esiste una regione causalmente connessa limitata da un orizzonte che cresce nel tempo come Rh,ct. Lo scenario inflazionario elimina il problema contemplando un periodo primordiale di espansione accelerata in cui il fattore di scala varia con R(t)~et/τ, con τ~w-1/25cost determinato da una densità w di energia quantistica di vuoto costante e molto grande. In altre parole, si postula creazione di nuova energia assieme con lo spazio, un concetto che nell'ultimo ventennio è stato reso credibile dalla fisica delle interazioni fondamentali. Così, in tempi molto brevi dell'ordine di 10234-10232 s, una singola regione causalmente connessa potrebbe espandersi fino a dimensioni anche molto maggiori dell'orizzonte che limita le osservazioni sull'Universo attuale. In questo scenario, le fluttuazioni quantistiche primordiali producono una distribuzione di increspature con la scala in accordo con le misure di WMAP. È importante notare che l'inflazione, la cui dinamica è determinata da w che si mantiene costante, non ha una propria asimmetria né determina una freccia cosmica, ma deve presupporla. L'analisi è così rimandata alle condizioni vigenti a tempi ancora anteriori. Il tempo più breve che si può costruire con le costanti fondamentali G, c e h è il tempo di Planck tP5(Gh/c5)1/2,10243 s; a esso sono associate una lunghezza minuscola rP,10233 cm e una massa minuta MP,1025 g. Queste grandezze vengono a trovarsi naturalmente all'incrocio fra la relatività generale e la meccanica quantistica. Per es., il più piccolo buco nero che sia ancora localizzabile ha appunto una massa pari a MP; a tempi vicini a tP gli orizzonti causali hanno proprio dimensioni Rh,rP. Al di sotto di tali scale le fluttuazioni quantistiche divengono così selvagge da alterare concepibilmente la struttura classica dello spazio-tempo, sfumando e confondendo spazio e tempo in una 'schiuma' primordiale.
Poiché una teoria pienamente accettata di gravità quantistica non c'è ancora, il quadro a tempi vicini a 10243 s è fortemente incompleto; verso il 'bordo' dello spazio-tempo si concentra oggi una intensa ricerca in cui continuamente si affacciano e si avvicendano nuove idee e possibilità ispirate dalla teoria delle stringhe (Gasperini-Veneziano 2003). Altri punti di vista più convenzionali ma tra loro opposti sono i seguenti (Hawking-Penrose 1996): una descrizione di tipo quantistico che rimuova il problema delle condizioni iniziali, identificando naturalmente uno stato fondamentale del sistema Universo corrispondente a una condizione iniziale molto probabile, espansiva, con alta simmetria e basso grado di correlazioni; oppure argomenti in favore di una straordinaria specialità dello stato iniziale, nel senso di una struttura gravitazionale che vicino alla singolarità uniforme del tipo big-bang abbia una curvatura enorme ma una distorsione mareale nulla o in qualche senso minimale. Questo equivale a escludere il caso in cui il contenuto delle prime regioni causali di dimensioni rP o poco maggiori fosse totalmente collassato in un minibuco nero, il quale determinerebbe distorsioni drastiche. Tuttavia è improbabile che il collasso totale si ripeta continuamente al crescere della regione coinvolta; infatti, i mini buchi neri inizialmente collassano ed evaporano in tempi comparabili e un ricollasso totale e sistematico richiederebbe una implausibile 'cospirazione' estesa oltre l'orizzonte. Si può allora rappresentare la situazione come una schiuma primordiale di spazio-tempo impegnata in un frenetico ribollire di collassi e di evaporazioni entro ciascuna miniregione causale. Ma non appena una bolla riesce a 'partire' e gonfiarsi, la sua entropia massimale (di buco nero totale) crescerebbe come Smax~t2, mentre quella relativa a un contenuto fluido e non collassato crescerebbe solo come t1,5 e quella effettiva con pochi buchi neri è intermedia. Dunque si costituisce subito la condizione di disequilibrio primario che permette l'aumento di complessità e lancia insieme la freccia cosmica, quella storica e quelle termodinamiche. Entro questo quadro, sembra che l'espansione cosmica, non appena partita, debba risucchiare dietro di sé la cascata dei processi parziali, che si diramano nel tentativo di riempire il vuoto di entropia (o di cancellare la carica di informazione possibile) che l'espansione crea. Tra questi processi parziali c'è anche la nostra personale vicenda come un breve intervallo di disequilibrio faticosamente mantenuto. In un senso molto più profondo e più alto delle illusioni vendute dagli astrologi, anche questa vicenda è scritta nelle mappe del cielo.
repertorio
La cosmologia moderna
Il cosmo è l'insieme di tutta la materia, la radiazione e le altre forme d'energia che costituiscono l'Universo fisico in cui abitiamo. Il termine deriva dal greco cósmos, propriamente "ordine", con cui gli antichi Greci indicavano il nostro mondo, considerato come un tutto armonico e ordinato, contrapposto al disordine del caos primordiale. La cosmologia, ovvero lo studio della struttura e della composizione del cosmo, nasce come scienza fisica nel corso del Settecento con le intuizioni di Thomas Wright di Durham e con le ipotesi di Immanuel Kant e Johann Lambert. Il primo suggerì che le stelle della Via Lattea fossero distribuite spazialmente in un sistema a forma di disco, mentre i secondi due formularono l'ipotesi che alcuni oggetti celesti chiamati nebulae, nebulose, fossero sistemi stellari simili alla Via Lattea, ma esterni a essa. Queste importanti idee seminali rimasero alquanto vaghe nella loro formulazione originaria fino al completamento dell'opera di catalogazione stellare di William e John Herschel, padre e figlio. L'analisi delle osservazioni di più di 1700 nebulose e 70.000 stelle, in seguito alla pubblicazione nel 1847 del catalogo Herschel, portò alla conferma del modello a disco per la Via Lattea. La descrizione oggi comunemente accettata della nostra Galassia risale al 1918 ed è dovuta a Harlow Shapley, secondo il quale la Via Lattea è un sistema stellare a forma di disco dove il Sole occupa una posizione eccentrica a circa due terzi della distanza radiale dal centro. Per la conferma dell'ipotesi di Kant e Lambert si dovette attendere fino al 1924, quando Edwin Hubble dimostrò in maniera definitiva che la nebulosa a spirale di Andromeda si trova al di fuori della nostra Galassia. Un ulteriore passo avanti nello studio del cosmo fu compiuto con l'applicazione della teoria della relatività generale al sistema-Universo e con la conseguente formulazione di modelli evolutivi del cosmo.
Modelli di evoluzione del cosmo
Nel 1917 Albert Einstein adottò un modello statico dell'Universo, nel quale l'accelerazione derivante dalla mutua attrazione gravitazionale delle componenti del cosmo è compensata da un parametro introdotto arbitrariamente nelle equazioni dinamiche, detto costante cosmologica L. Al matematico Aleksandr Friedmann si deve la formulazione, nel 1922, di una serie di modelli dinamici che descrivono l'evoluzione del cosmo su larga scala in funzione di un ristretto numero di parametri osservabili. Tre sono i principali scenari descritti da Friedmann: nel primo, l'Universo si espande indefinitamente a partire da uno stato di densità di energia infinita, detto singolarità iniziale: è questo il caso di un Universo aperto, con un passato finito e un futuro infinito. Il secondo scenario prevede che l'iniziale fase di espansione sia seguita da una contrazione di tutto il cosmo dovuta alla forza gravitazionale che riporterebbe l'Universo a una situazione analoga a quella di partenza: si parla in questo caso di Universo chiuso, per il quale il tempo è finito nel passato e nel futuro; questo modello suggerisce immediatamente l'ipotesi che l'Universo possa essere un sistema oscillante tra due stati caratterizzati rispettivamente da una massima e da una minima densità media di energia. Il terzo scenario di Friedmann è intermedio tra i primi due e corrisponde a un Universo piatto o a curvatura nulla, nel quale il cosmo si espande indefinitamente, mentre la sua velocità di espansione tende a zero.
Elemento essenziale dei modelli evolutivi sopra accennati è il cosiddetto Principio Cosmologico, secondo il quale nessun punto od osservatore all'interno del cosmo può ritenersi particolare o privilegiato. In base a tale principio, il cosmo è omogeneo e isotropo su grande scala. Questa è, in effetti, un'ipotesi essenziale per poter trovare soluzioni cosmologiche esatte alle equazioni della relatività generale. La validità del Principio Cosmologico ebbe la sua maggior conferma con la scoperta nel 1965 della radiazione cosmica di fondo (v. oltre) e le osservazioni del satellite COBE (Cosmic background explorer), lanciato nel 1989. Il secondo pilastro su cui si basa la cosmologia moderna è la legge di Hubble sui moti di recessione delle galassie. Dopo pochi anni dalla formulazione dei modelli evolutivi dell'Universo, Hubble mostrò nel 1929 che, almeno fino a 30 milioni di anni-luce dalla Via Lattea, le galassie si allontanano con una velocità v5H0 D che è semplicemente proporzionale alla distanza D della galassia da noi. Questa di Hubble è l'unica legge di espansione per cui qualunque galassia può essere considerata come centro di espansione e anche l'unica per la quale da qualunque galassia si osserverebbe la stessa legge di recessione, in accordo con il Principio Cosmologico. La costante di proporzionalità H0 è chiamata costante di Hubble e si misura per ragioni storiche in km al secondo per megaparsec. Il valore di H0 secondo le più recenti misurazioni astronomiche è prossimo a 70 km/sec/Mparsec. L'inverso Ù della costante di Hubble ha le dimensioni fisiche di un tempo ed è chiamato il tempo caratteristico dell'Universo. Da misure di H0 è possibile risalire all'età del cosmo che oggi si pensa che sia dell'ordine di 13,7 miliardi di anni.
Le dimensioni del cosmo
Determinare la scala delle distanze cosmiche è uno dei principali problemi della cosmologia osservativa. La misura della parallasse annua di una stella secondo la tecnica geometrica nota già a Ipparco di Nicea (2o secolo a.C.) permette di stimare la distanza delle stelle più vicine. Con questo metodo trigonometrico è possibile misurare distanze fino a 100 parsec (circa 300 anni-luce) da osservatori terrestri, mentre utilizzando telescopi orbitanti ci si è potuti spingere fino a distanze dell'ordine di 1000 parsec (si vedano per es. i risultati del 1997 della missione Hypparcos dell'Agenzia spaziale europea). Per misurare le stelle più lontane contenute all'interno della Via Lattea vengono generalmente utilizzati i diagrammi di Hertzsprung-Russel, che permettono di collegare le proprietà spettrali di una stella alla sua luminosità assoluta L. Nota quindi L e misurata la luminosità apparente, è possibile stimare la distanza della stella tenendo conto che la luminosità apparente di un oggetto diminuisce inversamente al quadrato della distanza. Per distanze extragalattiche, uno dei metodi più usati consiste nell'individuare nelle galassie vicine alcuni indicatori di distanza, ovvero classi di oggetti - per es. stelle di splendore variabile o nebulose gassose - di cui siano note la luminosità intrinseca o le dimensioni lineari dall'osservazione di oggetti simili posti nelle nostre vicinanze, all'interno della Via Lattea. Hubble utilizzò, per es., alcune stelle variabili dette Cefeidi per stimare la distanza della Nebulosa di Andromeda, che si trova a circa due milioni di anni-luce dalla Terra.
Per le galassie tanto lontane da non poter essere risolte nelle loro componenti viene adottato il metodo spettroscopico basato sul redshift, lo spostamento verso il rosso delle righe spettrali di emissione. L'espansione cosmica comporta, infatti, un aumento della lunghezza d'onda della luce che è proporzionale alla distanza della sorgente dall'osservatore. Da misure degli spettri di oggetti lontani è possibile ricavare il redshift e da questo la velocità di recessione che inserita nella legge di Hubble fornisce una misura della distanza.
La struttura del cosmo
Le misure di distanza unite alle coordinate degli oggetti astronomici sulla volta celeste ci permettono di ricostruire la distribuzione spaziale delle varie strutture che compongono il cosmo. Il Sole con il suo sistema planetario è una stella di media grandezza che assieme a circa 100 miliardi di altre stelle forma la Via Lattea. Le galassie sono generalmente raggruppate in strutture denominate gruppi, ammassi e superammassi. Un gruppo di galassie contiene da 2 a 100 galassie in una regione di spazio del diametro di circa un milione di anni-luce. Gli ammassi sono aggregati di qualche centinaio di galassie e hanno dimensioni caratteristiche di circa 10-30 milioni di anni-luce. Infine i superammassi sono strutture formate da una decina di ammassi che si estendono su distanze dell'ordine di 200 milioni di anni-luce. I superammassi sembrano essere distribuiti in modo da formare superfici e linee lungo le quali si concentrano le galassie. Il cosmo avrebbe quindi una struttura spugnosa sulla scala di circa 200 milioni di anni-luce, caratterizzata da grandi bolle vuote delimitate da agglomerati di galassie. Su distanze dieci volte maggiori, dell'ordine dei 3 miliardi di anni-luce, la ricchezza di strutture dell'Universo si esaurisce e su tale scala il cosmo può essere considerato con buona approssimazione uniforme.
I primi istanti dell'Universo
Numerose indicazioni osservative e teoriche hanno consolidato il convincimento che il cosmo abbia avuto origine con una grande esplosione (big-bang in inglese). Questa teoria era già contenuta nei modelli cosmologici di Friedmann-Lemaître e fu ripresa ed elaborata da George Gamow e collaboratori verso la metà del secolo scorso. Il modello fu ulteriormente sviluppato da Alan H. Guth nel 1981 con l'introduzione della cosiddetta inflazione cosmica.
Nei modelli di Universo che prendono origine da una singolarità iniziale, caratterizzata da raggio nullo e densità infinita, anche la temperatura doveva avere un valore infinitamente grande. Con l'espansione che fa seguito al big-bang, la temperatura e la densità media di energia hanno iniziato a decrescere. I primi 10243 s (tempo di Planck) di esistenza del cosmo non sono sondabili con le attuali teorie fisiche in quanto sarebbe necessaria una formulazione quantistica della gravitazione per descrivere le condizioni estreme della materia a temperature superiori a 1032 K. Dopo il tempo di Planck, la rapidissima evoluzione del cosmo viene generalmente descritta ricorrendo alle teorie di grande unificazione (GUT) e successivamente alla cromodinamica quantistica (QCD) e alla teoria elettrodebole di Glashow-Salam-Weinberg. Il fluido cosmologico era allora formato dai più elementari costituenti della materia oggi conosciuti (leptoni, quark e bosoni intermedi) interagenti tramite la gravità e un'unica altra forza. Con il decrescere della temperatura, quest'ultima forza si è via via suddivisa nelle tre forze fondamentali che oggi conosciamo: la forza nucleare forte, la forza nucleare debole e la forza elettromagnetica.
A circa 1014 K si verificarono la ricombinazione dei quark e la conseguente formazione degli adroni, per lo più neutroni e protoni. Una fase di notevole rilevanza cosmologica ebbe inizio qualche decina di secondi dopo il big-bang, quando la temperatura dell'Universo si era abbassata a un miliardo di gradi. Allora, infatti, nel fluido cosmologico iniziò la nucleosintesi primordiale che ha portato alla formazione degli elementi leggeri tra cui il deuterio, il litio e l'elio. Da quel momento e per i successivi 300.000 anni circa, la materia e la radiazione continuarono a raffreddarsi a causa dell'espansione cosmica rimanendo in equilibrio termico tra loro. Al termine di quel periodo, alla temperatura di circa 3000 K, avvenne poi la ricombinazione di protoni ed elettroni in idrogeno atomico. Allora il cosmo da opaco divenne trasparente alla radiazione elettromagnetica e, di conseguenza, materia e radiazione si disaccoppiarono termicamente. Ebbe inizio così l'epoca, che dura fino a oggi, nella quale la radiazione primordiale ha continuato a raffreddarsi, mentre, indipendentemente da essa, la materia si è condensata dando origine alle varie strutture cosmiche.
Conferme osservative del big-bang
I dati osservativi che maggiormente hanno contribuito alla conferma delle previsioni del modello del big-bang sono il flusso di Hubble, ovvero la verifica del moto di espansione di tutto l'Universo, la nucleosintesi primordiale e la radiazione cosmica di fondo. I più recenti modelli di nucleosintesi primordiale prevedono che circa il 24% dell'idrogeno venne fuso in elio e questo dato è in accordo con le abbondanze relative misurate negli ammassi di stelle e nelle regioni di idrogeno ionizzato. Quest'osservazione indica che soltanto una piccola frazione (circa il 10%) di tutto l'elio contenuto nel cosmo è di origine stellare, vale a dire è stata prodotta dalla fusione termonucleare che alimenta le stelle. La nucleosintesi primordiale permette inoltre di correlare le abbondanze cosmiche degli elementi leggeri (deuterio, litio e 3He) alla densità media di materia ordinaria all'epoca della nucleosintesi. Da osservazioni delle abbondanze cosmiche si è potuta così calcolare la densità di materia attuale tra 2310231 e 5310231 g/cm3. I modelli cosmologici conducono a una stima della densità di materia (ordinaria e non) da 4 a 10 volte maggiore. Si è portati a concludere quindi che solo una frazione tra il 5% e il 30% circa di tutta la materia cosmica sia costituita da materia ordinaria e che, di questa, solo una parte sia condensata in stelle.
Sulla base del modello d'espansione cosmica e della sintesi primordiale dell'elio, Gamow e collaboratori avevano previsto nel 1948 che il cosmo dovesse essere pervaso da una radiazione cosmica di fondo, o fossile, risalente all'epoca della formazione dell'idrogeno atomico. Questa radiazione avrebbe dovuto possedere uno spettro di corpo nero inizialmente alla temperatura di circa 3000 K, ma raffreddato al tempo attuale fino a circa 10 K a causa dell'espansione cosmica. Fu per caso che, nel 1965, due ricercatori della Bell Telephone, Arno Penzias e Robert Woodrow Wilson, impegnati nella costruzione di un rivelatore radio, notarono un forte rumore di fondo alla lunghezza d'onda di 7,35 cm. Questo rumore era 100 volte più intenso di quello dovuto alle radiosorgenti conosciute ed era singolarmente uniforme in tutte le direzioni. Immediatamente furono riconsiderate le previsioni di Gamow e il rumore venne identificato con la radiazione cosmica di fondo a una temperatura di circa 3 K. Accurate osservazioni con strumenti montati su palloni aerostatici e su satelliti orbitanti hanno permesso di misurare lo spettro della radiazione fossile senza l'interferenza dovuta all'atmosfera terrestre. Il satellite COBE ha misurato lo spettro della radiazione di fondo e ha confermato che esso corrisponde a uno spettro di corpo nero alla temperatura di 2,735 K. Le variazioni spaziali della temperatura sono fluttuazioni di 30 milionesimi di grado, vale a dire di una parte su circa 100.000. Di conseguenza l'anisotropia osservata corrisponde a circa 0,1 K all'epoca della ricombinazione e pertanto il cosmo era allora estremamente uniforme. Questa è la migliore conferma dell'ipotesi che l'Universo fosse inizialmente un fluido omogeneo e uniforme, come richiesto dai modelli cosmologici di Friedmann-Lemaître.
L'inflazione cosmica
Nonostante le notevoli conferme ricevute, il modello del big-bang non è in grado di dare una spiegazione ad alcuni importanti quesiti, tra cui il problema dell'orizzonte: a causa della velocità finita della luce, il nostro orizzonte di vista ha un raggio che, in anni-luce, è pari all'età dell'Universo. Pertanto puntando il telescopio in direzioni opposte osserviamo zone del cosmo che non possono aver mai comunicato tra loro. Come spiegare dunque che regioni diverse dell'Universo causalmente sconnesse tra loro presentino le stesse caratteristiche, come indicato dalla radiazione di fondo?
Un secondo quesito non risolto dalla teoria classica del big-bang è la piattezza dell'Universo, ovvero per quale ragione la densità di materia del cosmo sembri essere proprio pari alla densità critica, che discrimina tra un Universo aperto e uno chiuso.
Altro problema che non trova soluzione all'interno del modello classico del big-bang è l'origine delle fluttuazioni di densità iniziali che avrebbero portato alla formazione delle galassie in base al fenomeno dell'instabilità gravitazionale.
Per dare una risposta a tali quesiti, è stato proposto il modello inflazionario dell'Universo, che consiste nell'ammettere che il cosmo, a circa 10234 s dal big-bang, si sia gonfiato esponenzialmente aumentando il suo volume di 1050 volte in un tempo dell'ordine di 10233 s. Questo processo trova la sua giustificazione nella presenza di forze che si sarebbero esercitate tra la materia nelle condizioni fisiche estreme verificatesi a quell'epoca.
Nello scenario inflazionario il problema dell'orizzonte viene spiegato dal fatto che prima dell'inflazione le varie parti dell'Universo hanno avuto il tempo di interagire. Solo successivamente l'inflazione le ha portate a distanze tali da non poter comunicare tra loro a causa della velocità finita della luce. Si è visto che nei modelli inflazionari la geometria dell'Universo tende tipicamente a diventare euclidea e la densità di materia prossima a quella critica. In questo contesto l'essere piatto è una proprietà generale dei vari modelli d'Universo, invece di essere un caso limite particolare come nei modelli di Friedmann.
È senza dubbio la risoluzione del problema delle fluttuazioni il maggior successo del modello inflazionario. I 'semi' delle variazioni di densità sarebbero dovuti a fluttuazioni quantistiche sviluppate e amplificate poi dall'inflazione. Lo spettro delle perturbazioni ottenute in questo modo sarebbe proprio quello necessario per spiegare l'origine delle strutture cosmiche attualmente osservate.
Il tempo cosmico
Nella descrizione fluida propria dei modelli evolutivi l'Universo viene suddiviso in elementi di fluido cosmologico detti 'volumi standard'.
Tali volumi devono essere sufficientemente grandi da contenere un elevato numero di galassie, in modo da avere tutti le stesse proprietà medie, in particolare la stessa densità di materia. La storia temporale di un elemento di fluido corrisponde alla linea oraria del centro di massa dell'elemento. A ogni elemento di fluido può essere associato un particolare osservatore, nell'accezione della teoria della relatività. Il Principio Cosmologico può essere formulato affermando che ogni osservatore fondamentale, quello cioè solidale con un volume standard, vede allo stesso istante la stessa immagine media del cosmo. Si pone il problema di definire il significato di 'allo stesso istante', ovvero della sincronizzazione degli orologi di tutti gli osservatori fondamentali. È dunque possibile individuare un tempo cosmico, valido come riferimento per tutti gli altri tempi? La scoperta della radiazione di fondo ha permesso di definire una classe particolare di osservatori, per i quali è possibile definire in maniera consistente un tempo cosmico. Tali osservatori sono quelli che si trovano in uno stato di quiete rispetto alla radiazione di fondo. Per essi è possibile definire in modo non ambiguo il concetto di tempo cosmico e utilizzarlo per sincronizzare i vari orologi.
La radiazione di fondo è, in effetti, l'ultimo passo nel processo asintotico che ha portato all'individuazione sempre più precisa di un sistema di riferimento inerziale, partendo dal laboratorio per arrivare alla Terra, al Sistema solare, alla Galassia, al Gruppo Locale e così via aumentando la scala di distanze. In anni recenti le sempre più accurate osservazioni astronomiche hanno grandemente contribuito a meglio definire i modelli con i quali descriviamo il cosmo e la sua evoluzione. Molti tasselli sembrano incastrarsi bene e comporre un'immagine dell'Universo che riusciamo a leggere e spiegare in numerosi dettagli. Nello sforzo di comprendere il cosmo, abbiamo oggi ribaltato la visione cara agli antichi greci. Essi, infatti, ritenevano che il mondo si fosse formato in un passaggio dal disordine all'ordine, ovvero che l'Universo fosse stato plasmato dal caos secondo certe regole o leggi.
Attualmente siamo invece portati a ritenere che il cosmo sia nato in uno stato di sommo ordine e che, solo grazie all'intervento del caos, sia riuscito a sfuggire all'ordine dando origine all'Universo, alla vita e all'infinita ricchezza di strutture e forme che oggi possiamo osservare.
bibliografia
J.D. Barrow, F.J. Tipler, Il principio antropico, Milano, Adelphi, 2002.
L. Boltzmann, Vorlesungen über Gastheorie, Leipzig, J. A. Barth, 1898.
M. Calvetti, P. Franzini, C. Voci, "INFN Notizie", 2, 2000.
P.C.W. Davies, The physics of time asimmetry, Berkeley, University of California Press, 1974.
Id., I misteri del tempo, Milano, Mondadori, 1996.
M. Gasperini, G. Veneziano, The pre-big bang scenario in string cosmology, Physics Reports 373, North-Holland, Elsevier, 2003.
S.W. Hawking, R. Penrose, The nature of space and time, Princeton, Princeton University Press, 1996.
R. Penrose, La nuova mente dell'Imperatore, Milano, Rizzoli, 1992.
H. Reichenbach, The direction of time, Berkeley, University of California Press, 1956.