La grande scienza. Transizioni di fase e punti critici
Transizioni di fase e punti critici
Le transizioni di fase sono fenomeni molto familiari: un corpo può passare da uno stato d'aggregazione a un altro al variare dei parametri, come la temperatura e la pressione, che ne controllano l'equilibrio con l'ambiente circostante (fig. 1). Un esempio comune è fornito dalla trasformazione dell'acqua (liquida) in ghiaccio (acqua solida) che si ottiene abbassando la temperatura, a pressione costante, al di sotto di 0 °C. I diversi stati d'aggregazione che può presentare un corpo sono chiamati 'fasi'. Tutti i corpi presentano almeno tre fasi (solido, liquido e gas) che coesistono al punto triplo, ma la nozione di fase è stata estesa per includere altri stati che può presentare la materia. Si propongono alcuni esempi: un materiale magnetico, in assenza di campo magnetico, può presentare due stati: magnetizzato, vale a dire con momento magnetico M diverso da zero, oppure smagnetizzato, con M=0. Questi due stati costituiscono due fasi di un materiale magnetico; aumentando la temperatura al di sopra di un certo valore, caratteristico del materiale, si passa da una fase all'altra; alcuni metalli cessano di esercitare una qualsiasi resistenza al passaggio della corrente elettrica e diventano superconduttori se sono sufficientemente raffreddati; analogamente l'elio presenta due fasi fluide: in una si comporta come un fluido normale, nell'altra è un superfluido.
La comprensione di questi fenomeni, quando si cerca di analizzare il processo a livello atomico, ha impegnato i fisici per un periodo molto lungo: la teoria oggi universalmente accettata è stata proposta solamente nell'ultimo quarto del XX secolo. Per capire le difficoltà che si devono affrontare cerchiamo di immaginare che cosa succede alle singole molecole che formano l'acqua quando la temperatura è abbassata sotto 0°C. Nella fase liquida le molecole dell'acqua si muovono in maniera completamente disordinata: al contrario nel ghiaccio le molecole sono ordinate in cristalli, vale a dire in configurazioni fisse che si ripetono regolarmente nello spazio. Perfino un piccolo cristallo di alcuni micron consiste di svariati miliardi di molecole ben ordinate. Cambiare la temperatura non ha nessun effetto sulla forma delle molecole o sulle loro interazioni reciproche. Esse sono identiche nella fase solida e nella fase liquida e le distanze tra le molecole rimangono circa le stesse (l'acqua ha la peculiarità che la distanza media tra le molecole nel liquido è lievemente più bassa che nel solido). Di conseguenza abbassare la temperatura sotto 0°C (a pressione atmosferica), non esercita alcun effetto sulla forma delle molecole o sulle loro mutue interazioni, ma è sufficiente per formare un reticolo perfettamente ordinato composto da un numero enorme di molecole. Un'immagine suggestiva di quello che succede si può avere proiettando all'indietro il film dello scioglimento di una parata militare; si vedrebbero migliaia di persone, inizialmente disperse e che si muovono in tutte le possibili direzioni, allinearsi perfettamente all'improvviso. Questo è proprio quello che accade durante la transizione dallo stato liquido allo stato solido, con la differenza che il numero dei costituenti è di miliardi di miliardi e non soltanto di qualche migliaia.
La transizione liquido-vapore presenta altre caratteristiche microscopiche che sono meno familiari. Alla temperatura di ebollizione, le molecole dell'acqua passano in una fase di vapore, disordinata come il liquido, ma molto meno densa. Se teniamo il vapore in un tubo molto resistente e aumentiamo la pressione, tenendo la temperatura costante, si può vedere che il liquido si riforma e appare un menisco che separa le due fasi. Tuttavia se l'esperimento è effettuato sopra la temperatura critica, pari per l'acqua a 374 °C, non succede niente e il menisco non appare nemmeno alle pressioni più elevate.
Nella prima metà dell'Ottocento era opinione diffusa fra gli scienziati che in Natura esistessero due tipi di gas: quelli che non si potevano liquefare nemmeno alle pressioni più elevate, e per questo motivo detti permanenti, come per esempio l'ossigeno e l'azoto, e quelli non permanenti, come il vapor d'acqua, che potevano essere liquefatti aumentando la pressione. I primi esperimenti di Charles Cagniard de la Tour nel 1822 sull'anidride carbonica rilevarono che al di sopra della temperatura critica di 31 °C non era più possibile liquefare un gas di CO2. Gli accurati esperimenti di Thomas Andrews nel 1869 esplorarono in dettaglio il comportamento dell'anidride carbonica attorno al punto critico e misero in evidenza il fenomeno dell'opalescenza critica, vale a dire una forte diffusione della luce.
Successivamente fu compreso che tutti i gas si comportano in modo simile: sopra la loro temperatura critica l'aumento di pressione non produce il liquido, mentre al di sotto la liquefazione si realizza, se la pressione è sufficientemente elevata. I cosiddetti gas permanenti, sui quali gli esperimenti erano stati effettuati prima della scoperta di Andrews, erano semplicemente gas ben al di sopra della loro temperatura critica (−118,5 °C per l'ossigeno e −146,9 °C per l'azoto).
Il ferromagnetismo è un altro esempio di transizione di fase che possiede un punto critico, come scoperto da Pierre Curie nel 1890. Un campione di ferro è normalmente attratto da un magnete, ma se si trova al di sopra di 770 °C (il punto di Curie del ferro) perde la sua magnetizzazione. Il nikel, il cobalto e molte altre sostanze esibiscono lo stesso fenomeno. Il ferromagnetismo è una manifestazione macroscopica di un ordine a lungo raggio a livello atomico, che induce gli spin (il momento angolare intrinseco responsabile del momento magnetico dell'elettrone) degli elettroni, appartenenti a una regione chiamata dominio magnetico, ad allinearsi e puntare tutti nella stessa direzione. Tutti i ferromagneti hanno una temperatura di Curie al di sopra della quale le loro proprietà ferromagnetiche spariscono. Tale fenomeno è dovuto al prevalere dell'effetto disorientante dell'agitazione termica sulle forze di origine quantistica che tendono ad allineare gli spin. La forza responsabile dell'allineamento degli spin degli elettroni è stato un profondo mistero della fisica fino al momento in cui Werner Heisenberg si rese conto che questa forza nasceva da un inatteso fenomeno quantistico.
Queste transizioni di fase sono la manifestazione del comportamento collettivo di un gran numero di costituenti correlati. Ci si può render conto qualitativamente del meccanismo che ne è alla base analizzando il fenomeno della transizione ordine-disordine che avviene attorno al punto di Curie. Sopra la temperatura di Curie gli spin sono puntati in tutte le possibili direzioni e la somma su tutto il campione di questi vettori è in media nulla. Il sistema è contemporaneamente 'disordinato' e 'simmetrico': non presenta direzioni privilegiate. Applicando al campione un piccolo campo magnetico, un maggior numero di spin si orienteranno nel verso del campo piuttosto che nel verso opposto; il sistema presenta allora una magnetizzazione che scompare quando il campo magnetico s'annulla. Il corrispondente stato della materia si chiama paramagnete. Sotto il punto di Curie appare una magnetizzazione spontanea in assenza di un qualsiasi campo applicato. Il campione 'sceglie' una direzione preferita, perdendo l'isotropia caratteristica della fase ad alta temperatura. In questa fase ferromagnetica il campione è 'ordinato' e la simmetria della fase paramagnetica si è 'rotta spontaneamente' abbassando la temperatura. La magnetizzazione spontanea è il 'parametro d'ordine' caratteristico di questa transizione di fase.
La vicinanza della temperatura critica è segnata da forti fluttuazioni termodinamiche della magnetizzazione. Sebbene l'interazione quantistica tra gli spin abbia un corto raggio di azione, dell'ordine della distanza interatomica, vicino al punto di Curie le correlazioni tra gli spin appaiono fino a una distanza ξ, la lunghezza di correlazione, che può essere migliaia di volte più grande della distanza interatomica. Al punto critico dei fluidi, questo grande valore della lunghezza di correlazione produce l'opalescenza critica: infatti la forte diffusione della luce indica che ξ è dell'ordine della lunghezza d'onda della luce visibile, che è un migliaio di volte più grande della distanza intermolecolare.
Queste caratteristiche, ossia l'apparizione della transizione ordine-disordine indotta dal cambiamento della temperatura, la possibilità che la simmetria del sistema si rompa spontaneamente, l'esistenza di un parametro d'ordine e infine la presenza di una grande lunghezza di correlazione sono elementi comuni a tutti i punti critici.
La superconduttività, per fare un altro esempio, è la proprietà, scoperta da Heike Kamerlingh Onnes nel 1911, di alcuni metalli di non opporre resistenza al passaggio della corrente elettrica al di sotto di una temperatura critica Tc: Tc vale 7,2 K per il piombo e 9,3 K per il niobio. La simmetria che si rompe quando la temperatura è abbassata sotto Tc, è connessa all'invarianza dell'interazione tra gli elettroni, quando si cambia la fase della loro funzione d'onda quantistica.
Alla fine del XIX sec. i principî della meccanica statistica erano stati ben stabiliti; un ruolo molto importante avevano rivestito i lavori di Ludwig Boltzmann a Vienna e di Josiah W. Gibbs a Yale. Per la prima volta era possibile connettere le proprietà macroscopiche della materia, come la compressibilità e l'equazione di stato, ai suoi costituenti microscopici. In particolare, Boltzmann aveva connesso il concetto macroscopico, apparentemente misterioso, di entropia al numero di stati microscopici dell'insieme degli atomi per un valore dato dell'energia totale. L'entropia appariva quindi come una misura quantitativa dell'ordine.
Il comportamento qualitativo di un sistema può essere spesso compreso se si considera l'energia libera, una quantità termodinamica definita come E−TS, vale a dire l'energia meno l'entropia moltiplicata per la temperatura termodinamica. All'equilibrio un sistema isotermo si trova nella configurazione macroscopica di minima energia libera. Esiste quindi una competizione tra l'energia (che richiede ordine) e l'entropia, competizione che è 'arbitrata' dalla temperatura. A bassa temperatura l'energia è il termine dominante nell'espressione dell'energia libera e il sistema si ordina; al contrario, ad alta temperatura, l'entropia è il termine dominante e la minimizzazione dell'energia libera si realizza portando l'entropia a un valore elevato e conseguentemente il sistema in uno stato disordinato. Pertanto a temperature molto basse l'energia è la minore possibile: gli atomi si dispongono in una configurazione che gli permette di beneficiare al massimo delle loro mutue interazioni per abbassare la loro energia. Questa condizione implica che l'insieme degli atomi può assumere soltanto un numero molto ristretto di configurazioni, quindi la loro entropia è piccola e il sistema è ben ordinato. A temperature più alte diventa più vantaggioso per il sistema stare in configurazioni di energia più alta, meno ordinate, considerato che il loro numero, ovvero la loro entropia, sopraffà il loro costo energetico.
Sebbene questo comportamento qualitativo fosse ben compreso, anche dopo l'introduzione della meccanica statistica rimaneva aperto il problema delle transizioni di fase, ossia del cambiamento discontinuo degli stati della materia. Infatti l'analisi precedente sarebbe stata compatibile con un graduale cambiamento da uno stato ordinato a bassa temperatura a uno stato disordinato ad alta temperatura. Negli anni Trenta del secolo scorso alcuni fisici misero in discussione la possibilità di spiegare i bruschi cambiamenti che accadono durante le transizioni di fase utilizzando la meccanica statistica. Ci si domandava se fosse necessario aggiungere nuove regole per permettere la coesistenza delle fasi e il cambiamento discontinuo da una fase all'altra. In pratica molto spesso si costruisce una teoria per la fase A (diciamo il gas) e un'altra per la fase B (diciamo il liquido); solo successivamente si passa a esprimere le condizioni per la loro coesistenza. Non era quindi chiaro se c'era una descrizione unica delle interazioni tra le molecole che poteva rendere conto simultaneamente sia della fase A sia della fase B. Il fenomeno delle simmetrie rotte spontaneamente lasciava molto perplessi: come è possibile che soltanto a basse temperature la simmetria di quello che si osserva sia minore della simmetria delle interazioni? Inoltre l'analisi teorica era confusa dalla dimostrazione (che si può fare facilmente sulla base dei principî primi della meccanica statistica) che una orientazione preferenziale, come in un ferromagnete, non può mai accadere in un sistema composto da un numero finito di costituenti, come è sempre il caso in Natura. In altre parole, un uso troppo ingenuo della teoria portava alla conclusione che non esistono transizioni di fase! In realtà quest'argomento non era conclusivo in quanto il numero di costituenti di qualunque pezzo di materia, anche di un pezzo molto piccolo, è enorme (la più piccola goccia d'acqua consiste di milioni di miliardi di molecole). Al di sotto la temperatura critica, una qualsiasi asimmetria, non importa quanto piccola, ha un effetto macroscopico. Quindi, in condizioni normali, la finitezza del numero di costituenti è irrilevante. Questo è il motivo per il quale si assiste a improvvisi e bruschi cambiamenti quando si verificano transizioni di fase.
La comprensione teorica migliorò durante il periodo della Seconda guerra mondiale per effetto di due successivi contributi estremamente importanti. Per primo Rudolf Ernst Peierls, un rifugiato tedesco nel Regno Unito, dimostrò nel 1941 che in un'ampia classe di materiali magnetici la magnetizzazione spontanea, indice di una rottura spontanea di una simmetria, doveva necessariamente apparire a temperature sufficientemente basse. In seguito Lars Onsager, un norvegese che lavorava negli Stati Uniti, calcolò esattamente le proprietà statistiche a tutte le temperature, mettendo in evidenza l'esistenza di una transizione di fase ferromagnetica, del più semplice modello microscopico di spin interagenti, il cosiddetto modello di Ising, che era stato introdotto da Ernest Ising nella sua tesi di dottorato. Nonostante la grande semplicità del modello, la soluzione richiede un'analisi matematica molto complessa, che Onsager riuscì a portare fino in fondo solamente nel caso del modello a due dimensioni. Dopo più di mezzo secolo di ricerche, nessuno è ancora riuscito a risolvere il modello tridimensionale, che ovviamente è più interessante dal punto di vista fisico. Tuttavia la soluzione di Onsager permise un passo avanti storico, poiché confermò che i principî primi della meccanica statistica, senza ulteriori aggiunte o assunzioni, contenevano la possibile esistenza di una transizione di fase.
Uno degli esperimenti effettuati da P. Curie sul magnetismo nel 1895 consisteva nello studio della reazione del sistema a un campo magnetico esterno. Nella fase disordinata ad alta temperatura, il sistema sviluppa una piccola magnetizzazione che si annulla quando il campo magnetico applicato viene portato a zero. Il rapporto tra la magnetizzazione e il campo esterno, ovvero la suscettività magnetica, è piccola ad alte temperature, ma diventa sempre più grande quando, diminuendo la temperatura, ci si avvicina al punto di Curie. Paul Langevin, che aveva lavorato con Curie, spiegò il basso valore della suscettività ad alte temperature usando un modello di spin accoppiati con il campo magnetico esterno, dove venivano trascurate le loro reciproche interazioni. Questo semplice modello è del tutto incapace di spiegare l'esistenza a basse temperature di uno stato ordinato ferromagnetico, la cui natura cooperativa richiede necessariamente la presenza di interazioni tra i vari spin.
La teoria del campo medio, sviluppata nel 1907 da Pierre Weiss, ha facilitato notevolmente la comprensione del ferromagnetismo. Weiss assumeva che ogni spin era soggetto sia al campo magnetico esterno, sia a un ulteriore campo molecolare creato dagli atomi vicini. L'intensità di questo campo addizionale aumenta con la magnetizzazione. Si arriva così a una descrizione autoconsistente dove la magnetizzazione del sistema, inizialmente sconosciuta, è creata dall'effetto combinato del campo esterno e del campo molecolare, quest'ultimo proporzionale alla magnetizzazione. Come precedentemente osservato, all'epoca la natura del campo molecolare era del tutto sconosciuta e soltanto 25 anni dopo Heisenberg capì che aveva origine da un effetto quantistico.
Questo nuovo modello era in accordo con la legge di Curie e con il modello di Langevin ad alte temperature, ma con un'importante differenza: prediceva l'esistenza di una transizione di fase alla temperatura di Curie, di una magnetizzazione spontanea al di sotto di questa temperatura e di una divergenza esplicita di certe quantità vicino al punto critico. Per esempio, la suscettività magnetica era inversamente proporzionale alla differenza della temperatura dalla temperatura di Curie e quindi poteva essere arbitrariamente grande vicino al punto critico; inoltre la magnetizzazione spontanea nella fase ferromagnetica, dove la temperatura T è più bassa di Tc, svanisce come (Tc−T)1/2.
Già nel 1873, in Olanda, Johannes D. van der Waals aveva proposto una teoria fenomenologica per la transizione liquido-gas. Essa aveva ricevuto immediatamente una grande attenzione in quanto, in accordo con la scoperta di Andrews, prediceva una sola fase fluida al disopra della temperatura critica e una transizione liquido-gas al di sotto. Alcuni dettagli del comportamento in vicinanza del punto critico trovati da Weiss per i magneti erano simili a quelli trovati da van der Waals per i fluidi. Per esempio, la compressibilità del fluido aumentava vicino al punto critico esattamente come la suscettività magnetica della legge di Curie-Weiss. All'epoca queste teorie erano in accordo ragionevole con gli esperimenti e la loro validità non era messa in discussione.
Un approccio sistematico, che si rivelò molto importante, fu proposto successivamente dal fisico teorico russo Lev Davidovič Landau, che nel 1936 formulò una teoria generale delle transizioni di fase e del comportamento critico. Questa teoria macroscopica era di natura termodinamica e non si proponeva, al contrario dei lavori di Langevin e Weiss, di connettere le proprietà osservate sperimentalmente con l'interazione dei gradi di libertà microscopici. Landau introdusse il concetto di parametro d'ordine, delle proprietà di simmetria della fase disordinata, della rottura spontanea della simmetria nella fase ordinata. La teoria puntava a descrivere tutte le possibili transizioni di fase: la sua semplicità e la sua grande applicabilità la resero uno degli strumenti più usati nel cercare di capire i cambiamenti di stato della materia. Il comportamento quantitativo del sistema era in accordo con le precedenti teorie di van der Waals e di Weiss.
Negli anni Sessanta diventarono disponibili nuove tecniche sperimentali, in particolare la diffusione della luce del laser, applicata allo studio dei fluidi o di miscele binarie che si separano, lo scattering di neutroni e la spettroscopia RMN (risonanza magnetica nucleare) usate nell'analisi dei fenomeni magnetici. I risultati ottenuti con queste nuove tecniche erano estremamente interessanti, ma contraddicevano le idee teoriche prevalenti all'epoca. Per esempio, la suscettività di un magnete non era semplicemente proporzionale alla differenza di temperatura (T−Tc), ma aumentava un poco più velocemente (fig. 2). Questa crescita poteva essere caratterizzata da una legge di potenza con un esponente detto 'esponente critico'; per esempio, la suscettività magnetica di un ferromagnete diverge come 1/(T−Tc)γ quando la temperatura viene abbassata fino al punto di Curie; vicino al punto critico liquido-gas la lunghezza di correlazione ξ diverge come 1/(T−Tc)ν (in questo caso Tc è la temperatura del punto critico) producendo l'opalescenza critica, che è il segno di grandi domini correlati, di grandezza paragonabile a quella della lunghezza d'onda della luce e quindi costituiti da miliardi di molecole; la magnetizzazione spontanea nella fase ferromagnetica svanisce come (Tc−T)β (fig. 3), ecc.
Nella teoria classica i valori attribuiti a questi esponenti critici erano semplici e di generale applicazione. Essa prediceva che per tutte le transizioni di fase si dovesse avere γ=1, ν=1/2, β=1/2. Era noto che tali valori erano in contraddizione con i risultati ottenuti da Onsager nella sua soluzione del modello di Ising bidimensionale (che erano γ=7/4, ν=1, β=1/8). Tuttavia la natura bidimensionale del modello e alcune caratteristiche non realistiche, senza le quali il modello non si sarebbe potuto risolvere, facevano probabilmente pensare che il disaccordo con un modello, così lontano dalla realtà fisica, non implicasse necessariamente che la teoria classica dovesse essere modificata nella sua applicazione a sistemi fisici realistici.
I problemi apparirono in tutta la loro evidenza quando nuovi esperimenti, molto precisi, mostrarono che in vicinanza del punto critico, i risultati sperimentali erano invariabilmente in disaccordo con la teoria classica. Inoltre, la loro analisi rivelò caratteristiche sorprendenti, che furono analizzate negli anni Sessanta: le leggi di scala e l'universalità.
Le leggi di scala si manifestano in molti modi differenti. Supponiamo, per esempio, di misurare la magnetizzazione M come funzione del campo magnetico H e della temperatura T, sia sotto sia sopra del punto di Curie. Per ogni valore di T possiamo tracciare il diagramma della magnetizzazione come funzione di H e in questo modo rappresentare i dati come un insieme di curve, ognuna differente dall'altra. Tuttavia se per realizzare i diagrammi vengono scelte delle variabili opportune (per es., M/(T−Tc)β), in funzione di H/(T−Tc)β+γ, tutti i dati nella regione al di sopra della temperatura in prossimità del punto critico si dispongono su una sola curva, quasi come se vicino alla temperatura critica il sistema fosse invariante rispetto a un cambiamento simultaneo della scala della temperatura, misurata come distanza dal punto critico, del campo magnetico e della magnetizzazione. Nello stesso modo i risultati delle misure delle correlazioni spaziali mediante esperimenti di diffusione possono essere rappresentati come un insieme di curve: la correlazione come funzione della distanza tra due punti al variare della temperatura. La funzione di correlazione decade esponenzialmente con la distanza mediante una lunghezza di correlazione ξ che diverge al punto critico. Se si costruisce il diagramma delle varie curve che rappresentano la correlazione come funzioni della variabile ridotta r/ξ (distanza diviso lunghezza di correlazione), tutte queste curve, scegliendo opportunamente la scala verticale, si dispongono su un'unica curva, nonostante che ξ vari enormemente con la temperatura.
Queste leggi di scala implicano anche che gli esponenti critici - finora ne abbiamo introdotti solo tre, ma ce ne sono molti di più che caratterizzano altre proprietà fisiche, come il calore specifico - non sono indipendenti. Si trova infatti che tutti possono essere espressi come funzione di due esponenti critici. Per esempio, sia gli esperimenti, sia i risultati di modelli esattamente risolubili, sono tutti compatibili con la relazione 2β+γ=dν, dove d è la dimensione dello spazio; sperimentalmente si ha ovviamente d=3, tranne che per campioni estremamente sottili, ma questa relazione è interessante anche per d diverso da tre, in quanto è soddisfatta sia dai risultati di Onsager per il modello di Ising bidimensionale sia dai risultati classici di Landau in quattro dimensioni per ragioni che saranno discusse successivamente.
Il quadro che emergeva da questi risultati empirici sulle leggi di scala era di un sistema che rimaneva simile a sé stesso quando veniva osservato su svariate scale di lunghezza, dalle distanze interatomiche fino alla lunghezza di correlazione. Era come se ingrandendo il sistema dalla scala molecolare fino alla lunghezza di correlazione si vedessero via via immagini differenti ma simili l'una all'altra, un fenomeno che successivamente verrà molto studiato; sistemi con queste proprietà furono chiamati frattali.
Una volta dimostrato che la teoria classica era incompatibile con gli esperimenti, l'ipotesi più naturale era di supporre che ogni sistema possedesse il suo proprio insieme di esponenti critici, le sue curve riscalate, ecc. Non era così: furono studiate centinaia, forse migliaia di punti critici liquido-gas; la temperatura critica variava su una scala enorme, dai −268 °C dell'elio ai 31 °C per l'anidride carbonica. Tuttavia si trovava che gli esponenti critici erano gli stessi per tutte le transizioni prese in considerazione (γ, per es., era vicino a 1,240 e ν vicino a 0,63); nello stesso modo, tutte le curve riscalate, nelle unità ridotte precedentemente introdotte, erano identiche per tutti i differenti campioni. Questo dimostrava che le proprietà riportate vicino al punto critico erano universali, vale a dire indipendenti dal sistema considerato.
I numerosi studi sperimentali condotti in quel periodo trovarono infatti che, non solo le proprietà critiche di tutti i fluidi erano identiche, ma erano anche identiche in tutti i sistemi dove la transizione era descritta da un parametro d'ordine scalare, cioè non vettoriale: fluidi, miscele binarie, magneti la cui magnetizzazione spontanea è allineata con un'asse di simmetria del cristallo, ecc. Tuttavia in altri sistemi, come nella transizione dall'elio normale all'elio superfluido o nei magneti in cui la magnetizzazione si orienta in un piano privilegiato, il parametro d'ordine era un vettore bidimensionale e le proprietà critiche cadevano in un'altra classe. Ci si rese conto allora che esistevano classi d'universalità: per determinare a quale classe appartenesse un particolare punto critico era sufficiente conoscere la natura delle simmetrie che governano le interazioni tra i costituenti. Tali osservazioni lasciavano i fisici sconcertati e incuriositi: per un lungo periodo non s'intravide che tipo di descrizione potesse rendere conto di risultati che erano indipendenti dai dettagli della dinamica.
Capire il motivo per cui la teoria classica non funzionava non fu difficile. La teoria di Landau era basata su considerazioni puramente termodinamiche. La teoria del campo molecolare, che prediceva gli stessi risultati classici, assumeva che in un dato istante in ogni punto del campione, tutti i costituenti microscopici subissero influenze dei vicini che non fluttuavano con il tempo. In questo modo si trascuravano le fluttuazioni sia spaziali sia temporali, mentre gli esperimenti rivelavano l'esistenza di forti fluttuazioni su tutte le scale. Le lacune della teoria erano facili da identificare, ma i rimedi non sembravano funzionare. Se si cercava di correggere gli svantaggi della teoria del campo medio omogeneo e di tener conto delle fluttuazioni, che in prima approssimazione si supponevano piccole, si notava che le correzioni alla teoria classica erano troppo forti e addirittura divergevano, quando ci si avvicinava al punto critico. Se si prendeva come punto di partenza la teoria di campo medio, ci si trovava immediatamente in una regione di grandi fluttuazioni che interagivano fortemente, dove tutti gli schemi teorici noti fallivano miseramente. Alla fine degli anni Sessanta tale problema era considerato come uno tra i più importanti di tutta la fisica. La soluzione stava per arrivare, ma da un'area completamente inattesa della fisica teorica: la strada fu aperta da una rianalisi accurata del gruppo di rinormalizzazione, una tecnica molto formale della teoria dei campi quantistici.
Questo nuovo modo di analizzare le proprietà di un sistema composto di un grande numero di costituenti fu introdotto nei primi anni Settanta da Kenneth Wilson, un teorico che lavorava sulle interazioni tra le particelle elementari (nel 1982 gli fu conferito il premio Nobel per la fisica per la teoria dei fenomeni critici). Allo scopo di sviluppare una nuova comprensione della natura delle interazioni tra particelle elementari, aveva riformulato una vecchia tecnica formale, chiamata gruppo di rinormalizzazione e aveva dimostrato la sua applicabilità ai fenomeni critici, arrivando a fornire una spiegazione, oggi universalmente accettata, delle loro misteriose proprietà di scala e di universalità. Come spesso accade, esistono precursori delle nuove idee. Un passo in avanti molto significativo era stato compiuto nel 1967 da Leo Kadanoff, che aveva introdotto molte delle idee che furono alla base degli sviluppi successivi. Inoltre, l'uso di tecniche simili a quelle delle particelle elementari era stato introdotto da Gribov, Migdal e Poliakov; la possibilità di utilizzare il gruppo di rinormalizzazione era stata suggerita da Carlo di Castro e Giovanni Jona Lasinio; tuttavia, fu solo con il lavoro di Wilson che queste varie idee furono unificate in una teoria coerente capace di fare predizioni quantitative, anche estremamente accurate.
Per illustrare le idee alla base del gruppo di rinormalizzazione prendiamo in esame un reticolo di spin, dove soltanto gli spin vicini interagiscono, vale a dire essenzialmente il modello di Ising. Come risultato di queste interazioni, l'energia di due spin vicini è più bassa quando sono paralleli che quando sono antiparalleli. Risulta conveniente introdurre un parametro J, definito come il rapporto tra questo guadagno in energia e la temperatura: tale parametro, se espresso in unità opportune, è un numero puro. Vicino al punto critico la lunghezza di correlazione ξ(J) è grande se paragonata al passo reticolare (bisogna ricordare che la lunghezza di correlazione varia al cambiare della temperatura e quindi di J).
Consideriamo un piccolo blocco di siti vicini del reticolo. Se gli spin dentro questo blocco fossero orientati in maniera completamente casuale, la lunghezza di correlazione sarebbe uguale a pochi passi reticolari. Al contrario, quando la lunghezza di correlazione è grande, gli spin del blocco sono fortemente correlati. Pertanto si può ragionevolmente supporre che, nella regione vicino al punto critico, dove la lunghezza di correlazione è enorme, se dividiamo l'intero reticolo in blocchi di lato b, una descrizione adeguata della configurazione degli spin si può ottenere rappresentando un blocco di spin come un solo spin uguale alla media degli spin che lo costituiscono.
In questo modo ci siamo costruiti un nuovo modello dove gli spin del blocco interagiscono tra di loro (un argomento più dettagliato mostra che l'energia dello spin che rappresenta un blocco dipende essenzialmente dagli spin che rappresentano i blocchi vicini). Il passo reticolare del nuovo reticolo è più grande di un fattore b, che è ovviamente maggiore di 1 (per es., se in tre dimensioni il reticolo è cubico e un blocco è costituito da un cubo elementare con otto spin, b è uguale a 2). In prima approssimazione solo i blocchi di spin vicini interagiscono e la forza di questa interazione è caratterizzata da un nuovo parametro J′ che dipende da J e quantifica il guadagno in energia quando gli spin che rappresentano due blocchi vicini sono paralleli invece che antiparalleli. Possiamo quindi scrivere J′=f(J), dove f è una funzione appropriata che può essere stimata mediante delle approssimazioni semplici (fig. 5).
La nuova lunghezza di correlazione degli spin che rappresentano i blocchi è la stessa degli spin originali, ma se misurata in unità del nuovo reticolo è divisa da b. Si arriva quindi alla relazione tra le due lunghezze di correlazione: ξ(J′)=ξ(J)/b.
Alla temperatura critica del sistema iniziale, chiamiamo Jc la quantità tale che la lunghezza di correlazione va a infinito. Quindi a questa temperatura il lato destro della precedente relazione è infinito: di conseguenza anche il lato sinistro è infinito e J′ risulta essere uguale a Jc. Possiamo anche affermare che Jc è il punto fisso di questa trasformazione, vale a dire una quantità che è lasciata invariante dalla trasformazione. Inoltre, una semplice analisi matematica mostra che l'esponente ν, che controlla la divergenza della lunghezza di correlazione vicino al punto critico, può ottenersi mediante una linearizzazione di questa trasformazione ed esprimersi in termini della derivata di f(J) calcolata in Jc.
Tale presentazione è molto semplificata e non tiene conto delle interazioni tra spin che rappresentano blocchi non contigui e che appaiono se viene fatta un'analisi che tiene conto in maniera appropriata delle fluttuazioni degli spin nei vari blocchi. Se si procede come indicato, si ottengono dei risultati qualitativamente corretti, ma non sufficientemente precisi per fare un confronto quantitativo con gli esperimenti. Tuttavia essa introduce molte delle idee che contribuiscono con successo all'analisi finale: (a) la dinamica del sistema può essere descritta su scale differenti e la descrizione su una scala più grande può essere ottenuta a partire da quella su una scala più piccola, a patto di utilizzare i nuovi parametri che caratterizzano l'interazione alla nuova scala; (b) il punto critico è un punto fisso della trasformazione che connette i parametri a una data scala con i parametri a una scala più piccola; (c) gli esponenti critici e le funzioni di scala sono ottenuti linearizzando questa trasformazione vicino al punto fisso.
In questo quadro gli esponenti critici non dipendono tanto dalla forma originale dell'interazione sulla scala atomica, quanto dalle proprietà della trasformazione vicino al suo punto fisso. Questo risultato è il primo passo per comprendere l'universalità, ossia l'indipendenza del comportamento critico dallo specifico sistema che si sta considerando.
In linea di principio l'analisi di Wilson non trascura nessun grado di libertà e affronta il sistema reale in tutta la sua complessità. Consideriamo una configurazione, ovvero una distribuzione spaziale degli spin: essa è caratterizzata dalle correlazioni a diverse lunghezze, dalla più piccola, la spaziatura del reticolo, a quelle più lunghe, dell'ordine della lunghezza di correlazione. Secondo i principî della meccanica statistica le proprietà all'equilibrio possono calcolarsi facendo una somma, opportunamente pesata, su tutte le possibili diverse configurazioni degli spin. Tuttavia in generale non è noto come fare in pratica questa somma enorme: un minuscolo sistema di un migliaio di spin necessita di una somma su un numero astronomico di configurazioni, un numero di 300 cifre, e il più piccolo sistema fisico contiene miliardi di costituenti. Il metodo di Wilson consiste nell'effettuare all'inizio la somma sui gradi di libertà del sistema che si riferiscono alla lunghezza d'onda più corta. Dopo aver eseguito questa somma parziale, rimaniamo con un nuovo sistema in cui compaiono solo i gradi di libertà sulle scale più grandi. Questo sistema è caratterizzato da una nuova interazione: il cambiamento nella forma dell'interazione viene dalla somma sui gradi di libertà sulla scala più piccola, che erano accoppiati a quelli su scala più grande e quindi modificano la forma della loro interazione originale. Utilizzando questa tecnica si ottiene nuovamente il risultato che sta alla base della formulazione moderna del gruppo di rinormalizzazione: un cambiamento nella scala della lunghezza induce un cambiamento dei parametri dell'interazione che descrive il sistema a quella scala.
Possiamo visualizzare tale fenomeno introducendo un flusso nello spazio dei parametri dell'interazione che porta i parametri dell'interazione su scala più piccola in quelli su scala più grande. Se questa operazione è ripetuta in maniera iterativa, a partire dalla scala microscopica fino ad arrivare alla scala fisica più grande, quando modifichiamo il valore di un parametro rispetto al suo valore al punto critico emergono due tipi principali di comportamenti: (a) i parametri si evolvono, quando la scala diventa sempre più grande, verso il punto fisso; il parametro modificato è quindi irrilevante, in quanto, indipendentemente dal suo valore originario, rimaniamo sempre al punto fisso; (b) i parametri si allontanano dal punto fisso all'aumentare della scala; il parametro è rilevante, in quanto, se non è scelto esattamente al punto fisso, porta il sistema lontano dalla zona di criticità.
In pratica si trova che ci sono solamente pochi parametri che sono rilevanti, ovvero che devono essere scelti con cura per stare al punto critico. Per esempio, in un magnete il campo magnetico deve essere nullo e la temperatura deve essere fissata esattamente al punto di Curie. Ogni altro parametro che può essere usato per descrivere l'interazione tra gli spin è irrilevante e questo spiega l'universalità osservata sperimentalmente. Nello stesso modo in un fluido, una volta che due parametri connessi alla pressione e alla temperatura sono fissati al punto critico, tutti gli altri sono irrilevanti.
Il gruppo di rinormalizzazione spiega perfettamente le proprietà osservate d'invarianza di scala e di universalità. Tuttavia rimane il problema delicato di usare il gruppo di rinormalizzazione per il calcolo degli esponenti critici e delle varie funzioni universali di scala per le differenti classi di universalità. A tale scopo sono state sviluppate diverse elaborate tecniche.
La prima di queste si basa su una diretta conseguenza del gruppo di rinormalizzazione. Un'analisi esplicita conduce al risultato sorprendente che, se il sistema studiato è definito in uno spazio matematico, non fisico, con più di quattro dimensioni, invece delle nostre tre dimensioni, i risultati della teoria classica di Landau diventano esatti. Il passo successivo consiste nell'estendere le espressioni che entrano nelle equazioni del gruppo di rinormalizzazione per il cambiamento dei parametri sotto una trasformazione di scala a un numero non intero di dimensioni; chiaramente questo non ha senso al di là delle espressioni specifiche che si sta considerando. Alla fine si scrivono tutte le equazioni per uno spazio di dimensioni (4−ε), ma il valore fisico del parametro ε è uno. Tuttavia per rimanere prossimi alla semplice situazione quadridimensionale, ε viene trattato come un parametro piccolo e soltanto alla fine del calcolo esso viene considerato uguale al suo valore fisico. Questo sviluppo in ε, se congiunto con opportune tecniche di risommazione, ha prodotto valori teorici per i vari esponenti e per le funzioni di scala che appaiono in ciascuna classe di universalità, che sono in ottimo accordo con gli esperimenti. Negli anni Settanta e Ottanta sono state sviluppate molte altre tecniche basate sul gruppo di rinormalizzazione, utilizzando sia strumenti analitici, sia simulazioni numeriche e attualmente possiamo affermare che i misteri del comportamento critico sono ben compresi.
Questi sviluppi della teoria del gruppo di rinormalizzazione hanno avuto un'influenza considerevole su altri problemi, alcuni dei quali apparentemente scollegati. Per esempio, immediatamente dopo i lavori di Wilson, Pierre-Gilles de Gennes intuì che le proprietà geometriche delle soluzioni di polimeri potevano essere comprese utilizzando il gruppo di rinormalizzazione. La distanza tra i due capi di una catena polimerica aumenta con il numero dei monomeri e l'aumento è caratterizzato da un esponente ν. Una lunga catena è un oggetto autosimile su distanze grandi se paragonate a quelle di monomeri consecutivi. Anche in questo problema l'esponente ν è universale, ovvero indipendente dalla natura esatta dei monomeri e dalle loro mutue interazioni repulsive. C'era una semplice relazione tra ν e le dimensioni frattali di questo polimero. Le dimensioni frattali sono una generalizzazione dell'usuale nozione di dimensione dovuta al matematico Felix Haussdorf, la cui presenza ubiqua nel mondo reale è stata enfatizzata da Benoît Mandelbrot. Questa comprensione dell'universalità delle proprietà dei polimeri era basata su una brillante trasposizione delle idee sviluppate per le transizioni di fase.
Lo stesso accade nei modelli per la percolazione: esistono numerosi modelli che descrivono la conducibilità elettrica di una miscela di palline conduttori e isolanti. La geometria dei cammini conduttori presenta di nuovo proprietà universali di autosomiglianza che possono essere comprese in maniera sia qualitativa sia quantitativa mediante il gruppo di rinormalizzazione.
Negli ultimi trent'anni sono stati scoperti molti altri tipi di transizioni di fase con punto critico tra stati diversi della materia e il loro studio si basa su idee simili. Ci sono molte transizioni tra le varie fasi dei cristalli liquidi, ossia le molecole che sono utilizzate per la costruzione degli schermi piatti dei calcolatori, dispositivi estremamente comuni ai nostri giorni. L'ordine nei cristalli liquidi è a metà strada tra quello di un liquido e quello di un solido. Le molecole hanno una forma simile a quella di sigari o aghi. Nella fase nematica, questi aghi sono tutti allineati ed esibiscono un ordine orientazionale, ma i loro centri sono disordinati come le molecole di un liquido. Nella fase smectica le molecole sono organizzate in strati regolari equidistanti gli uni dagli altri come in un solido, ma si muovono come in un liquido all'interno dello stesso strato. Esistono molte transizione di fase tra queste diverse situazioni che si possono ottenere cambiando la temperatura o la concentrazione; esse sono anche importanti per la comprensione di strutture biologiche come le membrane.
Tuttavia le transizioni di fase non sono presenti soltanto nell'ordinaria materia condensata. L'Universo, la sua dinamica e le sue strutture su grande scala sono dominate da un certo numero di transizioni di fase.
Il modello cosmologico del big bang, l'evento singolare che corrisponde all'apparizione dello spazio, del tempo e della materia è descritto ai nostri giorni da un modello di universo inflazionario che è seguito da una transizione di fase, una rottura spontanea di una simmetria, che è responsabile dell'apparizione della radiazione e successivamente della materia.
Nei primi microsecondi che seguirono il big bang, le particelle fondamentali che compongono l'attuale materia dei nuclei, i quark legati fra di loro dai gluoni, erano liberi di muoversi, mentre adesso sono confinati permanentemente dentro i neutroni e i protoni. L'Universo è passato quindi da una fase di quark liberi a una fase di quark confinati. Attualmente molti esperimenti studiano collisioni tra ioni estremamente pesanti con lo scopo di produrre nella direzione inversa la transizione di fase che confina permanentemente questi quark: si spera di osservare per pochi cortissimi istanti un plasma di quark, prima che ridiventino confinati a causa del loro immediato raffreddamento.
L'attuale Modello standard di tutte le interazioni fondamentali tra le particelle elementari, gravità esclusa, cioè le forze elettromagnetiche, deboli e forti, richiede l'esistenza di una nuova specie, ancora da scoprire, di particelle: i bosoni di Higgs. Poco dopo il big bang il campo quantistico associato a questi bosoni dovrebbe attraversare una transizione di fase che è all'origine del corto raggio di azione delle forze deboli, mentre la loro controparte, le forze elettromagnetiche, rimangono con un lungo raggio d'azione.
La storia delle vicissitudini necessarie per arrivare a una comprensione delle transizioni di fase e della natura divergente delle fluttuazioni critiche fa parte ormai del passato. Tuttavia le idee sviluppate stanno ancora influenzando molte aree della fisica e dei sistemi complessi, sistemi eterogenei composti di molti gradi di libertà fortemente correlati. Il gruppo di rinormalizzazione è una teoria estremamente solida che permette di comprendere l'emergenza di comportamenti collettivi e trova quindi applicazioni in un elevato numero di aree della ricerca contemporanea.
Curie 1908: Curie, Pierre, Oeuvres, Paris, Société française de physique, 1908.
Kadanoff 2000: Kadanoff, Leo, Statistical physics: statics, dynamics and renormalization, Singapore, World Scientific Publishing, 2000.
Kleman, Lavrentovich 2003: Kleman, Maurice - Lavrentovich, Oleg D., Soft matter physics: an introduction, New York, Springer, 2003.
Landau 1965: Landau, Lev D., Collected papers, New York, Pergamon, 1965.
Landau, Lifshitz 1969: Landau, Lev D. - Lifshitz, Evgeni M., Statistical physics, Reading (Mass.), Addison-Wesley, 1969.
Ma 1985: Ma, Shang-Keng, Modern theory of critical phenomena, Singapore, World Scientific Publishing, 1985.
Onsager 1944: Onsager, Lars, Crystal statistics. I. A two-dimensional model with an order-disorder transition, "Physical review", 65, 1944, pp. 117-149.
Stanley 1987: Stanley, Eugene H., Introduction to phase transitions and critical phenomena, New York, Oxford University Press, 1987.
Weiss 1907: Weiss, Pierre, L'hypothèse du champ moléculaire et la propriété ferromagnétique, "Journal de physique pure et appliquée", 6, 1907, pp. 661-690.
Wilson, Kogut 1974: Wilson, Kenneth G. - Kogut, John, The renormalization group and the epsilon expansion, "Physics reports", C12, 1974, pp. 75-200.
Yeomans 1992: Yeomans, Julia M., Statistical mechanics of phase transitions, Oxford, Clarendon, 1992.