La seconda rivoluzione scientifica: fisica e chimica. La fisica della materia condensata
La fisica della materia condensata
Dopo la fine della Seconda guerra mondiale un certo numero di scienziati specializzati in diversi campi della fisica, rendendosi conto che si trovavano ad affrontare gli stessi problemi e a sviluppare le medesime tecnologie, diedero vita a quello che sarebbe diventato il settore della fisica dello stato solido. Agli occhi degli altri scienziati questo nuovo settore appariva semplicemente come un insieme incoerente e non particolarmente promettente di argomenti non fondamentali nel campo della fisica, più vicini alla tecnologia che alla ricerca di base.
Tuttavia già a partire dagli anni Settanta il numero degli scienziati impegnati in questo campo era aumentato al punto da rendere la fisica dello stato solido il maggior settore fra quelli in cui risultava suddivisa la comunità dei fisici (che a sua volta si era notevolmente ingrandita). Raggruppata insieme con altre aree di interesse scientifico sotto il nome di fisica della materia condensata, la fisica dello stato solido finì con l'occupare una posizione nettamente dominante nel mondo scientifico, grazie all'importanza delle sue applicazioni nel settore delle comunicazioni, dell'elaborazione delle informazioni e dei materiali industriali. Quell'insieme incoerente di aree di ricerca, che era apparso all'inizio così poco promettente, si era dimostrato capace, infine, di incidere notevolmente in ogni aspetto della società umana.
Pochi fra i gruppi di fisici che prima della Seconda guerra mondiale si erano occupati di argomenti riguardanti la fisica dello stato solido riuscirono a ricostituirsi dopo la fine del conflitto. A Strasburgo, sotto la direzione di Louis Néel (1904-2000) un gruppo ricominciò le ricerche sul magnetismo; a Gottinga Robert W. Pohl (1884-1976) insieme ai suoi allievi continuò a studiare i 'centri di colore' che danno ai cristalli puri la loro colorazione. Nel frattempo, sotto la guida di Nevill F. Mott (1905-1996) i difetti strutturali che determinano le proprietà meccaniche dei cristalli divennero oggetto di studio da parte di alcuni ricercatori della University of Bristol. Il gruppo di ricerca che si era costituto a Mosca attorno alla figura di Lev Davidovič Landau (1908-1968), come del resto molti altri gruppi dai Paesi Bassi al Giappone, si concentrò invece sul problema della teoria della superconduttività e su altri fenomeni collettivi.
Di ancora maggior importanza fu la nascita di significative collaborazioni di ricerca su progetti interdisciplinari inerenti a una grande varietà di argomenti connessi con la fisica dei solidi. Alcune di queste si svilupparono in seno a gruppi esistenti già prima della guerra, come quelli di Bristol e Mosca, ma molte altre furono determinate nell'ambito di nuove strutture di ricerca. Per esempio, la University of Chicago fondò il nuovo Institute for the Study of Metals. Questo istituto discendeva direttamente dal Chicago Metallurgical Laboratory, che durante la guerra aveva giocato un ruolo determinante nel Manhattan Project. L'aggettivo metallurgical rappresentava una denominazione di facciata, che in realtà nascondeva attività di ricerca sull'energia nucleare, ma la scelta di questa espressione in codice si rivelò non del tutto inappropriata poiché lo studio delle proprietà dei materiali costituiva in effetti una parte essenziale del lavoro. Il fondatore dell'istituto, Cyril S. Smith (1903-1992), il quale era stato a capo degli esperti della lavorazione dei metalli al Laboratorio nucleare di Los Alamos, cooptò un gran numero di fisici e di chimici affinché collaborassero con i tecnici specializzati nella lavorazione dei metalli e l'area di ricerca si andò progressivamente allargando, fino a comprendere ogni genere di cristallo.
Nel frattempo, presso gli AT&T Bell Telephone Laboratories (New Jersey) fu intrapresa una vera e propria riorganizzazione postbellica che portò alla formazione di una nuova divisione dedicata allo studio dello stato solido. William Shockley (1910-1989), fra gli altri, indirizzò la ricerca di questo nuovo dipartimento verso molte aree di interesse commerciale e militare. Di portata ancora più ampia fu un gruppo di grandi dimensioni, fondato a Urbana nel 1949 da Frederick Seitz dopo il suo trasferimento alla University of Illinois, con l'obiettivo esplicito di coprire un'area tematica che non si poteva descrivere con alcun termine più appropriato di quello di 'stato solido'.
Assumendo diverse persone che sarebbero poi divenute figure di spicco del settore, Seitz coordinò le ricerche su una serie di temi che spaziavano dai centri di colore, ai difetti strutturali, alla superconduttività. Due anni dopo, John C. Slater (1900-1976), con la ferma intenzione di unificare gli studi sui materiali in generale, costituì un gruppo di ricerca presso il Massachusetts Institute of Technology (MIT) battezzandolo con il nome dall'accezione più ampia fra tutti quelli ai quali si è precedentemente accennato: Solid States and Molecular Theory Group. Non deve sorprendere il fatto che la maggior parte dei nuovi gruppi di ricerca sia sorta negli Stati Uniti, poiché a seguito della guerra le risorse americane per la ricerca erano pari a quelle di tutte le altre nazioni del mondo assieme. Un altro stimolo fu indubbiamente la guerra fredda. Oggi gli storici si trovano d'accordo nell'affermare che, per quanto riguarda gli anni Cinquanta e Sessanta, negli Stati Uniti circa la metà dei finanziamenti a favore di quasi tutti i settori della ricerca scientifica proveniva da istituzioni militari. La metà rimanente invece derivava da altre fonti che, nel caso dello studio dei solidi, erano prevalentemente industriali.
Fra tutti i fattori che favorirono il rapido progresso della ricerca nel campo della fisica dello stato solido, il più importante fu sicuramente lo sviluppo di nuove tecniche di laboratorio. Fisici sperimentali e tecnologi, grazie ai risultati ottenuti durante la guerra, fornirono alla comunità scientifica una serie di strumenti che erano decisamente più sensibili ed efficaci di quelli utilizzati in precedenza.
L'esempio più significativo è quello che riguarda la risonanza di spin elettronico. Il valore strategico del radar aveva stimolato durante la guerra uno sviluppo impetuoso della tecnologia nel campo della radiazione delle microonde. Dopo la guerra molti fisici, indipendentemente, si resero conto che le conoscenze acquisite potevano essere impiegate nello studio delle proprietà dei solidi. Un elettrone isolato si comporta come un piccolissimo magnete e quindi in presenza di un campo magnetico acquista un moto di precessione con una frequenza caratteristica, risultando allineato o parallelamente o antiparallelamente al campo. Una radiazione di microonde avente la stessa frequenza di tale moto di precessione può causare l'inversione dell'orientazione del piccolo magnete che possiamo considerare associato all'elettrone. Tuttavia l'ambiente in cui si viene a trovare l'elettrone influenza il valore della frequenza necessario per far avvenire il cambiamento di orientazione; pertanto misure di precisione nel regime delle microonde possono fornire informazioni molto importanti sulla disposizione degli elettroni nei materiali.
Entro la fine degli anni Quaranta la risonanza di spin elettronico era già stata osservata da gruppi statunitensi britannici e sovietici, e nello stesso tempo molti altri gruppi stavano sviluppando questa tecnica. Generalmente si utilizzavano gli elettroni intrappolati nei difetti di un reticolo cristallino (come i centri di colore) per ottenere informazioni sulla struttura cristallina. Nel frattempo diversi gruppi entrarono in competizione per quel che riguardava l'osservazione della risonanza di ciclotrone, un fenomeno legato alla componente elettrica piuttosto che a quella magnetica della radiazione di microonde. Diversi gruppi raggiunsero questo traguardo quasi contemporaneamente nel 1953. La risonanza di ciclotrone si rivelò di grande importanza anche come tecnica di studio di molte proprietà dei solidi.
La storia della diffusione dei neutroni presenta caratteristiche molto simili. La costruzione dei reattori nucleari del Manhattan Project, divenuta urgente a causa di esigenze della guerra fredda, rese immediatamente disponibile una sorgente di fasci di neutroni a bassa energia. I fasci neutronici potevano essere utilizzati per testare le proprietà dei cristalli, giocando il ruolo dei raggi X nella cristallografia tradizionale, ma con differenze considerevoli. Per esempio, i nuclei di idrogeno (vale a dire i protoni) potevano essere individuati soltanto con molta difficoltà per mezzo dei raggi X, mentre erano in grado di diffondere assai efficacemente i fasci di neutroni. Durante gli anni Cinquanta Clifford G. Shull (1915-2001) e altri utilizzarono i neutroni prodotti dal Laboratorio statunitense di Oak Ridge per determinare il modo in cui l'idrogeno si trova legato negli ibridi metallici e in un'ampia varietà di altri cristalli. Questi scienziati sfruttarono inoltre il fatto che i neutroni, anche in tal caso differentemente dalla radiazione X, possono perdere una quantità significativa di energia durante un processo di diffusione. Ciò consentì a Bertram Brockhouse (1918-2003), e poi a molti altri ricercatori, di estendere l'indagine ad altre proprietà dei reticoli cristallini utilizzando il reattore canadese di Chalk River.
Un esempio fondamentale di un genere sostanzialmente diverso di sviluppo tecnologico è costituito dal cosiddetto zone refining. La ricerca delle proprietà fondamentali dei materiali non poteva ottenere progressi significativi senza disporre di campioni di elevata purezza. Le aspettative suscitate dall'introduzione di alcuni tipi di applicazioni pratiche sarebbero state del tutto frustrate se non fosse stato possibile utilizzare campioni ad alto livello di purezza, successivamente drogati con impurezze in modo rigorosamente controllato (non soltanto per quel che riguardava il caso di campioni di dimensioni microscopiche: la purezza era richiesta anche nella produzione di lingotti di materiale di dimensioni considerevoli). Poco dopo la fine della guerra, diversi gruppi, specialmente ai Bell Laboratories, trovarono la soluzione a questo problema. Creando il vuoto in un recipiente, che era realizzato in silicio o grafite molto puri, utilizzarono un solenoide a induzione per riscaldare una zona di una sbarra metallica quasi liquida. Dopodiché muovevano più volte questa porzione di metallo fuso lungo la sbarra metallica non fusa, rimuovendone in questo modo le impurezze. I tecnici dei Bell Laboratories riuscirono a produrre con grande successo cristalli di germanio estremamente puro, con dimensioni che raggiungevano i 20 mm di diametro e i 100 mm di lunghezza. Erano inoltre in grado di drogare i materiali con un livello di impurezze controllato con precisione, aggiungendo una piccola quantità di gas. Quest'ultimo risultato era di cruciale importanza, poiché erano proprio gli atomi delle impurezze inseriti nel reticolo cristallino a fornire gli elettroni liberi o gli altri tipi di portatori di carica elettrica necessari per far acquisire al germanio le sue utilissime proprietà elettriche. Nel 1950 un'azienda tedesca, la Siemens, applicò il metodo del zone refin- ing al silicio. I suoi ricercatori impiegarono anni di lavoro specifico per individuare con esattezza la natura delle impurezze presenti in questo materiale e per sviluppare metodi ingegnosi per rimuoverle, ma alla fine riuscirono a produrne campioni estremamente puri. Questo tipo di lotta infaticabile con i problemi tecnici costituisce il fondamento nascosto su cui si è poi sviluppato l'intero edificio della ricerca nel campo dello stato solido.
L'enorme crescita dei gruppi di ricerca e delle tecnologie dello stato solido riguardò prevalentemente una ben specifica varietà di materiali: i semiconduttori. La maggior parte dei materiali conduce l'elettricità molto bene oppure si comporta come un isolante elettrico; ne deriva che le pochissime sostanze caratterizzate da una situazione intermedia sono quelle di maggior interesse teorico. Alcuni fisici si resero conto che tale stato intermedio tipico di elementi come il germanio e il silicio li rendeva facili da manipolare: era un chiaro invito per le applicazioni pratiche. Nessuna di queste era oggetto di maggiore interesse della sostituzione dell'amplificatore a tubo a vuoto, fragile e costoso, con un dispositivo a stato solido. La fine della guerra rappresentò l'inizio di una competizione per determinare chi sarebbe riuscito a realizzare un tale dispositivo.
La sfida fu vinta dai Bell Laboratories, grazie alla loro divisione di ricerca dello stato solido, che traeva beneficio dalla formazione di un gruppo di ricerca costituito da brillanti teorici e da ingegnosi sperimentatori ai quali si affiancava una creatività tecnologica ben esemplificata dall'introduzione del procedimento del zone refining. Alla fine del 1947, il teorico John Bardeen (1908-1991) e il fisico sperimentale Walter Brattain (1902-1987), lavorando in un gruppo di ricerca sui semiconduttori diretto da Shockley, riuscirono a ottenere in un dispositivo a doppia giunzione una forte amplificazione del segnale in uscita. Il congegno di Bardeen e Brattain era costituito da un frammento di germanio dotato di due contatti, metallo-semiconduttore e semiconduttore-metallo che venne presto ribattezzato 'transistor a contatti puntiformi'. Per non essere da meno, Shockley propose uno schema di un tipo di transistor completamente differente, ossia quello di un 'sandwich' composto da tre strati di materiale a tre drogaggi differenti.
Ciò costituì l'inizio di una vera e propria 'corsa all'oro'. In tutto il mondo industrializzato i gruppi di ricerca si impegnarono al massimo nello sviluppo di possibili applicazioni. A tagliare per prima il traguardo fu un'azienda associata ai Bell Laboratories, la Western Electrics, che inserì il transistor nei commutatori telefonici. Due anni dopo, la Texas Instruments iniziò a produrre una radio a transistor e nel 1955 il suo esempio venne seguito dalla società giapponese Sony. Benché nessuno potesse prevedere esattamente l'impatto sociale che avrebbe avuto l'introduzione di tali invenzioni, in molti si resero conto che aveva preso avvio una rivoluzione industriale. Fu proprio in questo clima che Shockley si trasferì nella California centrale per fondare una propria compagnia, gettando il seme di quell'enorme complesso industriale che divenne noto con il nome di Silicon Valley. Tuttavia per determinare la crescita delle applicazioni, quale si osservò effettivamente soltanto successivamente, era ancora necessaria un'invenzione fondamentale. Questa fu realizzata nel 1958-1959 indipendentemente da Jack Kilby della Texas Instruments e da Robert Noyce (1927-1990) dell'appena nata Fairchild Semiconductor nella Silicon Valley. Lavorando ciascuno per proprio conto, Kilby e Noyce compresero in che modo era possibile combinare diversi elementi a transistor su un piccolissimo frammento di silicio, ossia il circuito integrato (chip).
L'espansione industriale favorì una crescita esponenziale della ricerca nel campo dei semiconduttori, la quale a sua volta fornì lo stimolo per un ulteriore progresso industriale. Lo studio dei semiconduttori, che in mancanza di queste applicazioni pratiche sarebbe stato relegato in una posizione di minore importanza nel panorama della fisica dello stato solido, finì con l'acquistare un peso dominante sia per quel che riguardava le opportunità di lavoro sia per le pubblicazioni in questo settore della fisica. I fisici teorici estesero in ogni direzione le semplici teorie sviluppate negli anni Quaranta. La determinazione delle complesse strutture che caratterizzano le bande energetiche del germanio e del silicio (cioè le ampiezze degli intervalli dell'energia elettronica consentiti dalle leggi della meccanica quantistica) richiese il lavoro di molti gruppi di ricerca. Altri gruppi si dedicarono alla studio di ogni tipo di semiconduttore, nella speranza di individuare materiali ancora più utili del germanio e del silicio, ma numerosi tentativi in questa direzione non ebbero esito positivo.
Il progresso continuò per tutti gli anni Sessanta con l'invenzione di nuovi tipi di transistor. Uno di questi fu introdotto nel 1958 in seguito ai semplici esperimenti di Leo Esaki alla Sony. Utilizzando tecniche ad alta precisione per sovrapporre uno strato di materiale semiconduttore a un altro, Esaki fu in grado di dimostrare l'esistenza del processo di tunnelling dei portatori di carica, ossia di un loro movimento fra diversi livelli energetici che avviene in violazione delle leggi della fisica classica, ma in accordo con le predizioni della meccanica quantistica. Molte proprietà insolite, che erano associate al fenomeno di tunnelling, vennero sfruttate da Esaki con la realizzazione di un nuovo dispositivo che ebbe un grande impatto tecnologico: il 'diodo a effetto tunnel'.
Un altro esempio significativo fu l'inizio della produzione di eterostrutture, costituite da una sovrapposizione di diversi strati sottili di materiale semiconduttore. Il contributo maggiore (riconosciuto con l'assegnazione del premio Nobel per la fisica nel 2000) venne da due fisici teorici, Herbert Kroemer, che lavorava presso la Radio Corporation of America e si trasferì poi presso la Varian Corporation nella Silicon Valley, e Zhores Ivanovič Alferov, che lavorava in maniera del tutto indipendente presso l'Istituto Ioffe di Leningrado (San Pietroburgo). Tuttavia bisogna ricordare che risultò determinante il lavoro dei tecnologi, sia per gli esperimenti che confermarono le loro teorie sia per la realizzazione pratica delle eterostrutture. Nulla era più importante nel campo della ricerca e dello sviluppo dei semiconduttori di un impegno continuo per affinare le tecniche con le quali realizzare, in maniera pulita e riproducibile, la sovrapposizione di strati di materiali diversi o con impurezze di diversa natura. Il prodotto più significativo della combinazione di queste tecniche con la teoria delle eterostrutture è costituito senz'altro dal laser a stato solido, la cui realizzazione iniziò nel 1962 con la costruzione di un dispositivo all'arseniuro di gallio, che sarebbe diventato un elemento essenziale nella tecnologia della comunicazione con le fibre ottiche e in innumerevoli altre applicazioni.
La spinta che veniva dal campo dei semiconduttori determinò un notevole sviluppo sia nella ricerca teorica sia in quella sperimentale, che si sarebbe rivelato di grande utilità anche per lo studio di altri tipi di solidi. Per quel che riguarda la teoria, i progressi sarebbero risultati lenti in assenza dei computer digitali che comparvero con la fine della guerra. Con uno dei primi computer, ancora poco diffusi, Frank Herman portò a termine nel 1952 un calcolo pionieristico sulla struttura a bande del diamante e del germanio. Lo sviluppo dei computer era sul punto di arrestarsi, anche se temporaneamente, perché i tubi a vuoto tendevano a scaldarsi troppo ed erano soggetti a guasti, riducendo di molto la loro diffusione, che non superava le poche migliaia; ma l'elettronica allo stato solido avrebbe presto trovato una soluzione a questo problema.
Altre informazioni di cruciale importanza per i teorici della struttura a bande energetiche vennero dagli esperimenti nel regime delle microonde. Uno dei modi migliori per comprendere le proprietà elettroniche (e non solo) dei cristalli è rappresentato dallo studio della cosiddetta 'superficie di Fermi'. Con questo termine si indica la costruzione geometrica in uno spazio vettoriale astratto di una superficie associata a un valore di energia costante, che rappresenta il livello energetico più elevato occupato dagli elettroni nel materiale. La forma complessa di questa superficie è in grado di fornire una grande quantità di informazioni sulle proprietà dei materiali. Verso la fine degli anni Cinquanta, molti fisici trovarono il modo di misurare la superficie di Fermi in laboratorio avvalendosi della tecnologia delle microonde. Dopo essersi reso conto di alcune stranezze nel modo in cui avveniva la penetrazione delle microonde nella superficie dei metalli, Brian Pippard della Cambridge University comprese che le microonde testavano il moto degli elettroni in un modo direttamente collegato alla curvatura della superficie di Fermi. Nel 1956 Pippard fu chiamato a lavorare all'Institute for the Study of Metals a Chicago, dove erano stati sviluppati metodi per la realizzazione di cristalli estremamente puliti; egli riuscì a determinare la superficie di Fermi del rame.
Negli anni immediatamente seguenti altri fisici confermarono l'approccio basato sulla superficie di Fermi analizzando i cristalli in molti modi diversi. Nella maggior parte dei casi furono utilizzate la risonanza di ciclotrone o altre tecniche nel regime delle microonde, ma venne trovato anche il modo di misurare l'attenuazione delle vibrazioni ultrasoniche dovuta al movimento degli elettroni nello strato superficiale più esterno del cristallo. Ulteriori informazioni su alcuni materiali vennero ricavate anche dalle misure degli assorbimenti ottici, dallo studio della fotoemissione di elettroni e da altre tecniche. Le misure della superficie di Fermi costituiscono un notevole esempio di come fenomeni, inizialmente presentati sotto forma di pure astrazioni matematiche, cominciavano ad apparire agli esperti che li studiavano reali quasi quanto le sfaccettature dei cristalli che tenevano in mano.
I fisici teorici si sforzarono di tenersi al passo con gli esperimenti. Computer sempre più potenti fornivano un aiuto essenziale in questo senso, ma allo stesso tempo c'era la necessità di un progresso nella comprensione degli aspetti teorici. All'inizio degli anni Sessanta si osservò la comparsa di una nutrita comunità di specialisti, specialmente nei paesi di lingua inglese e nell'Unione Sovietica, impegnata nel determinare con crescente precisione la struttura della superficie di Fermi in una gamma sempre più ampia di materiali puri. Questo era soltanto uno fra i diversi e importanti strumenti che i teorici avevano sviluppato per eseguire calcoli che potessero essere confrontati con i dati sperimentali con sempre maggiore successo.
Un altro settore della fisica dello stato solido che ricevette una spinta considerevole dall'enorme entusiasmo suscitato dalle applicazioni dei semiconduttori fu lo studio dei difetti reticolari (ossia dei punti in cui si osservano differenze tra la struttura di un dato reticolo cristallino e quella di un ipotetico cristallo perfetto). I difetti sono all'origine di molte delle importanti proprietà dei semiconduttori e di altri materiali quasi completamente puri. Le tecniche sviluppate per studiare e produrre materiali semiconduttori con un elevato livello di purezza si rivelarono di importanza decisiva per la comprensione dei difetti in altri materiali. Motivazioni aggiuntive a sostegno di questo tipo di studi vennero dall'industria nucleare e da altre esigenze legate alla guerra fredda. Le radiazioni erano una delle cause principali della nascita dei difetti nei materiali, ponendo problemi a chi costruiva reattori nucleari o si preparava per la guerra nucleare.
Durante gli anni Cinquanta la linea principale di progresso in questo settore di ricerca era costituita dai centri di colore nei cristalli degli alogenuri alcalini. La disponibilità di cristalli puri, trasparenti e di considerevoli dimensioni rese facile la realizzazione di studi ottici e i ricercatori ricavarono ulteriori indizi dall'analisi sia della risonanza di spin elettronico sia delle proprietà elettriche, magnetiche e meccaniche. Nel 1954 Seitz pubblicò sulla "Review of modern physics" un programma di ricerca per questo campo. Nel relativo articolo egli riportò in una tabella i dodici differenti tipi di imperfezioni reticolari che era stato in grado di osservare con le microonde e avanzò l'ipotesi di una struttura (come quella di un elettrone intrappolato) per spiegare ciascuna di esse. I fisici di numerosi laboratori di tutto il mondo si misero al lavoro per arricchire questa lista, trovando infine che la maggior parte delle spiegazioni ipotizzate da Seitz dovevano essere modificate e scoprendo, inoltre, molti altri tipi di imperfezioni: tutto ciò rappresentò naturalmente un grande stimolo per lo sviluppo di questo settore. Già nei primi anni Sessanta i ricercatori erano riusciti a rispondere alla sfida lanciata da Seitz, completando la scoperta dei processi che avvengono nella maggior parte dei centri di colore degli alogenuri alcalini. L'attenzione si concentrò allora sul modo in cui i difetti potevano essere creati o modificati. Nel corso degli anni Sessanta la comprensione di natura qualitativa di questi fenomeni segnò il passo nei confronti di uno studio più quantitativo, mano a mano che i risultati dei calcoli mostravano uno stretto accordo con gli esperimenti.
Contrariamente alle attese, lo studio dei centri di colore non produsse in quegli anni alcuna applicazione pratica. Questo campo continuò a essere studiato soprattutto per il suo interesse intrinseco, poiché i ricercatori avevano analizzato soltanto una piccola frazione della grande varietà dei difetti riscontrabili nei diversi cristalli. Qualche applicazione si ebbe negli anni Settanta, come per esempio i rivelatori a semiconduttore ad alta sensibilità.
Le aspettative di importanti applicazioni pratiche aiutarono anche a sostenere gli studi di imperfezioni di maggiore estensione costituite da file intere di atomi. La sfida per i ricercatori iniziò a prendere un contorno chiaro nel 1947, quando William Lawrence Bragg (1890-1971) presentò alcune pellicole realizzate da uno studente del suo laboratorio a Cambridge. In queste pellicole si potevano scorgere migliaia di piccolissime bolle ordinatamente allineate in 'zattere' galleggianti su un liquido saponato, che scivolavano l'una sull'altra come strati di roccia in prossimità di una faglia. La presenza di dislocazioni ai bordi spiegava il modo con cui avveniva la deformazione di un metallo? Poteva venire imputato a esse il fatto che i metalli presentavano una resistenza meccanica molto inferiore a quella che i calcoli teorici riuscivano a prevedere sulla base della notevole intensità dei legami tra i singoli atomi? Verso la metà degli anni Cinquanta i microscopi elettronici confermarono queste idee controverse, mostrando le deformazioni che si muovevano realmente in sottili lamine metalliche.
I microscopi elettronici erano ancora più utili nel fornire immagini dell'enorme varietà di difetti che si trova sulle superfici dei cristalli. Di grande interesse era il caso delle dislocazioni a vite. Charles Frank (1911-1998) assieme con altri aveva previsto la formazione di strutture a rampa a spirale su una superficie, perché gli atomi liberi di muoversi nel cristallo si sarebbero legati con la massima facilità ai 'gradini' negli strati di atomi. Il processo inverso era quello delle conical etch pits, nel quale avveniva una scomparsa di atomi. In qualche occasione era possibile vedere l'allineamento di queste strutture, che costituiva la traccia di un piano di dislocazioni sulla superficie del cristallo. Nel corso degli anni Sessanta gli scienziati acquisirono una buona conoscenza delle modalità con cui avveniva il movimento degli atomi all'interno di un cristallo e sulla sua superficie.
Una delle ragioni principali di interesse per lo studio dei difetti era l'esigenza di capire il modo in cui questi possono fornire portatori di carica aggiuntivi ai semiconduttori o, al contrario, intrappolare tali portatori alterando le proprietà dei diversi dispositivi. Ma i produttori evitarono la maggior parte di questi problemi nel momento in cui iniziarono a produrre transistor mediante un processo di ossidazione di un wafer di silicio, di modo che la superficie di cruciale importanza era in esso costituita dalla superficie di separazione tra l'ossido e il silicio. Gli studi dei difetti interni e di quelli superficiali continuò, producendo calcoli teorici di buona qualità per ciò che riguardava proprietà importanti come la resistività. In certi casi furono possibili applicazioni in settori come quello della catalisi e dei lavori meccanici a sforzo elevato. Per esempio nel corso degli anni Settanta cristalli di metallo ultrapuro vennero utilizzati per la realizzazione nei motori a reazione di lame di turbine eccezionalmente robuste e resistenti.
Quando un piano di dislocazioni reticolari atomiche si sposta attraverso il reticolo stesso, in realtà i singoli atomi si muovono pochissimo. Il movimento riguarda effettivamente una configurazione geometrica astratta, ossia si è in presenza di quello che viene chiamato 'moto collettivo'. Nel corso degli anni Trenta i teorici avevano creato entità collettive di natura ancora più astratta, che traevano origine non da semplici allineamenti geometrici ma da effetti puramente quantistici. Un caso emblematico è quello delle lacune. Una banda energetica quasi completamente riempita da elettroni con carica negativa si comporta come se in essa sia presente soltanto una piccola quantità di cariche positive, dette 'lacune'. I fisici di solito trattavano queste lacune dal punto di vista matematico, proprio come le particelle normali. Intorno al 1945 Landau compì un audace passo in avanti, quando si rese conto che non è sufficiente considerare gli stati quantizzati di una singola particella o quasiparticella: alcuni fenomeni dipendono dall'esistenza di stati quantizzati relativi all'intero oggetto macroscopico, come per esempio un recipiente riempito di elio superfluido. Lo studio sempre più complesso di una quantità crescente di fenomeni collettivi divenne un filo conduttore che legava insieme i diversi settori della fisica della materia condensata.
L'effetto collettivo più rilevante è il ferromagnetismo. Già nel 1940 i ricercatori avevano compreso le sue principali caratteristiche concrete, che sono di natura geometrica. Tutto dipende dal modo in cui i momenti magnetici degli atomi si allineano lungo un'unica direzione, come sottilissimi magneti, all'interno di piccoli domini. Il controllo delle proprietà dei domini progrediva rapidamente, sulla spinta dello sviluppo dei nastri magnetici, che trovarono già nel 1951 un impiego commerciale per la memorizzazione dei dati nei computer. Ma tutto questo non forniva alcuna risposta alla questione fondamentale di come si originasse il ferromagnetismo all'interno di un singolo dominio. Alcuni teorici cercavano di spiegare il fenomeno in termini di singoli elettroni localizzati, fissati all'interno di una molecola e in grado di interagire con gli altri elettroni localizzati a loro più vicini. Altri utilizzarono la teoria delle bande energetiche per calcolare le proprietà magnetiche di elettroni itineranti, che si muovono più liberamente e possono interagire collettivamente. Nel corso degli anni Sessanta migliori metodi di calcolo fornirono risultati che spinsero i teorici verso l'idea del modello collettivo. Nel 1966 W. Conyers Herring dei Bell Laboratories scrisse un articolo sulle interazioni quantistiche tra elettroni itineranti che aiutò a risolvere la questione mostrando, inoltre, che in realtà i due approcci cui si è accennato potevano essere utilizzati insieme per ottenere una descrizione più completa.
I risultati più interessanti vennero da un genere di magnetismo molto particolare. Tornando indietro al 1932 Néel aveva spiegato il fenomeno dell'antiferromagnetismo in termini di coppie di atomi con i poli magnetici allineati in direzioni opposte. Egli aveva evidenziato inoltre che un cristallo antiferromagnetico in effetti è costituito da due differenti sottoreticoli compenetranti. Nel 1949 alcuni studi di diffrazione di neutroni confermarono questa intuizione. Tuttavia, la presenza di un magnetismo misterioso e di forte intensità che si riscontrava in alcuni materiali come la magnetite e più in generale le ferriti era più importante per il settore delle applicazioni pratiche. Lo studio tecnologico delle ferriti artificiali aveva registrato rapidi progressi durante la guerra, e in particolare i Philips Research Laboratories nei Paesi Bassi raggiunsero in questo campo un livello così avanzato da poterne iniziare la commercializzazione subito dopo la fine della guerra. Nel 1948 Néel, grazie anche agli studi con i raggi X delle strutture cristalline presso i Philips Reaserch Laboratories, riuscì a spiegare il fenomeno del ferrimagnetismo. Nelle ferriti, egli affermava, i reticoli compenetranti sono caratterizzati da forze magnetiche differenti e così riescono a generare un campo esterno. Pochi anni dopo il gruppo di Scull, che si occupava della diffrazione a neutroni, confermò la validità di questo modello.
Le teorie erano ora finalmente in grado di indicare una strada per migliorare le proprietà dei composti ferromagnetici; pertanto il lavoro cominciò ad aumentare rapidamente. Le ricerche sul magnetismo, che erano in via di evoluzione, raggiunsero un punto di svolta con la scoperta dei granati ferromagnetici (gli ossidi di ferro e di una terra rara metallica), avvenuta in modo indipendente nel 1956 e nel 1957 rispettivamente nei Bell Laboratories e a Grenoble in Francia. Poiché sezioni sufficientemente sottili di granato risultavano trasparenti, mediante l'uso di luce polarizzata i ricercatori erano in grado di osservare direttamente l'orientazione della magnetizzazione, rendendo pienamente visibile l'intera struttura dei domini.
Le ricerche e gli sviluppi nel campo del magnetismo forniscono un esempio, secondo soltanto a quello del transistor, dell'insieme indivisibile di teoria, esperimenti e tecnologia che caratterizza la fisica della materia condensata. L'impatto sulla società divenne evidente non appena i laboratori svilupparono i nastri magnetici per registrare le voci e in seguito le immagini televisive e il reticolo di microscopiche ciambelle di ferrite che costituirono fisicamente la memoria dei computer dalla fine degli anni Cinquanta ai primi anni Settanta.
Le entità collettive con impatto applicativo inizialmente più limitato, ma un fascino teorico ancora maggiore, fecero la loro comparsa in grande quantità come caratteristiche dell'insieme di elettroni che si muovono liberamente attraverso un conduttore o che occupano bande energetiche in un semiconduttore. I teorici che prima della guerra studiarono questo gas di elettroni avevano via via compreso come esso potesse acquisire notevoli proprietà strutturali per effetto delle interazioni tra gli elettroni e il reticolo atomico. Un primo esempio è l'eccitone. Questa entità, costituita da un elettrone accoppiato con una lacuna, fu ipotizzata negli anni Trenta ma osservata realmente soltanto nel 1951 per mezzo di una misura di assorbimento nell'ultravioletto. Gli eccitoni possono rimanere fissati ai difetti nel cristallo in un modo del tutto simile a ciò che avviene con i centri di colore. Tuttavia si possono anche muovere nel cristallo come particelle indipendenti.
Verso la metà degli anni Cinquanta si accertò la reale evidenza di un'altra e più importante entità che era stata oggetto di discussioni fino dagli anni Trenta: le vibrazioni reticolari quantizzate, note con il nome di fononi. Molti fisici si erano opposti all'idea che una tale astrazione potesse essere trattata allo stesso modo di un insieme di vere particelle. In seguito, il gruppo di Brockhouse riuscì a misurare cosa accade a un fascio di neutroni diffuso da un cristallo. Analizzando le piccole variazioni in energia che si osservano quando i neutroni eccitano moti vibrazionali nei metalli, nei semiconduttori e negli isolanti, Brockhouse fece sembrare i fononi entità reali almeno quanto i neutroni stessi. Egli proseguì su questa strada rivelando anche i magnoni, le vibrazioni reticolari quantizzate nei materiali magnetici. Nei dieci anni successivi la categoria delle eccitazioni collettive continuò ad acquisire nuovi elementi esotici, come per esempio il polarone, un elettrone in movimento che interagisce con altri elettroni in modo indiretto attirando verso sé gli ioni positivi del reticolo. Una solida collaborazione tra teoria ed esperimenti consentì una chiara comprensione di tutte queste entità simili alle particelle. La crescente familiarità acquisita con le eccitazioni collettive preparava le condizioni per la comprensione di uno dei più vecchi e stimolanti enigmi della fisica dello stato solido: la superconduttività. Gli esperimenti guidavano la ricerca. Poco dopo la fine della guerra Samuel C. Collins (1898-1984) del MIT fornì un aiuto cruciale in tal senso con l'invenzione di un efficiente apparato per la produzione dell'elio liquido.
Grazie al suo apparecchio per la liquefazione dell'elio i gruppi di ricerca potevano eseguire esperimenti anche molto lunghi e a temperature superiori soltanto di pochi gradi allo zero assoluto. Tali esperimenti fornirono maggiori indicazioni quando Pippard e altri utilizzarono l'effetto pellicolare anomalo per studiare l'entità della penetrazione delle microonde nei metalli. Non più tardi del 1950 questi fisici si convinsero che la superconduttività è legata a un ordinamento su grande scala, ossia a un effetto cooperativo, ipotizzato negli anni Trenta da Fritz London (1900-1954), che coinvolge non un piccolo ma un grande numero di elettroni dislocati in un'area molto ampia.
Allo sviluppo della tecnologia delle microonde si aggiunse quello della ricerca nucleare come fonte di utili indizi. Infatti i ricercatori negli Stati Uniti e in Gran Bretagna potevano reperire facilmente una certa quantità di isotopi diversi, l'uso dei quali negli esperimenti si rivelò un valido aiuto per lo studio delle proprietà dei superconduttori. Nel 1950 alcuni esperimenti mostrarono che la transizione superconduttiva osservata negli isotopi più leggeri del mercurio avviene a temperature più alte. Questo risultato fu una sorpresa per i teorici, la maggior parte dei quali riteneva che gli elettroni si muovessero liberamente attraverso il reticolo ionico. La scoperta di questo effetto, noto con il nome di 'effetto isotopico' (più piccola è la massa dello ione, più aumenta la temperatura di transizione) dimostrò che la superconduttività dipende in maniera cruciale dall'interazione tra gli elettroni e il reticolo e in modo più specifico, come si resero presto conto Bardeen e altri, tra gli elettroni e i fononi. Forti di questa chiave interpretativa i teorici raddoppiarono i loro sforzi per trovare la soluzione del problema della superconduttività.
Nel frattempo i sogni di applicazioni pratiche spettacolari di questo fenomeno si traducevano nei laboratori in una incessante ricerca tendente a individuare composti con temperature di transizione sempre maggiori. In assenza di una teoria credibile, non vi era altro da fare che realizzare tentativi con un'infinita varietà di materiali utilizzando l'intuizione come unica guida, secondo uno stile di lavoro diffuso in molte aree della fisica dello stato solido. Verso la fine degli anni Quaranta, John Hulm (1923-2004) e Bernd Matthias (1918-1980) della Chicago University confermarono la validità di alcune precedenti intuizioni sul fatto che unendo certi tipi di materiali è possibile realizzare composti con una temperatura di transizione superconduttiva molto più alta di quelle dei loro costituenti.
Dopo essersi trasferito ai Bell Laboratories, Matthias iniziò a utilizzare la tavola periodica degli elementi come guida per la scelta tra le innumerevoli combinazioni possibili. Nel 1954 egli scoprì un composto di niobio e stagno (Nb3Sb), che presenta la superconduttività fino a una temperatura di 18 K, e che, fatto di non minore importanza, riesce a condurre supercorrenti anche in presenza di elevati campi magnetici. Non a caso nei trent'anni successivi fu proprio questo materiale a essere utilizzato per i cavi degli avvolgimenti che formavano il cuore dei magneti superconduttori. Tuttavia, nonostante le grandi speranze che molti avevano nutrito, non vi fu nessuna applicazione di rilievo nel campo del trasferimento di potenza o di altri settori industriali. In effetti, era nella ricerca scientifica che lo sfruttamento del fenomeno della superconduttività sarebbe risultato di maggiore utilità, come dimostra la realizzazione dei magneti degli acceleratori di particelle ad alta energia.
I fisici teorici si sforzarono di attribuire un senso compiuto a tutti questi risultati sperimentali. A Mosca, nel 1950, Vitalij Lazarevič Ginzburg e Landau riuscirono a determinare una funzione d'onda degli elettroni con la quale era possibile calcolare alcune proprietà delle pellicole sottili di materiale superconduttivo, in seguito confermate dagli esperimenti. Questo risultato forniva un suggerimento su come si poteva trattare l'energia di superficie, che gioca certamente un ruolo importante nella transizione dallo stato normale a quello superconduttivo. Nel 1952, un giovane fisico teorico che si era unito al gruppo, Aleksej Alekseevič Abrikosov, avanzò l'ipotesi dell'esistenza di superconduttori con un'energia superficiale negativa, che furono in seguito chiamati superconduttori di tipo II (per distinguerli da quelli tradizionali, o di tipo I, caratterizzati da un'energia superficiale positiva). Alla fine divenne evidente che la maggior parte dei superconduttori utilizzati nei laboratori era in realtà di tipo II. Tuttavia a causa delle difficoltà di comunicare attraverso la cortina di ferro, i risultati di Abrikosov non ebbero quasi alcuna diffusione fino all'inizio degli anni Sessanta, determinando un vero e proprio ritardo in molti settori di ricerca negli anni Cinquanta.
Dal punto di vista teorico gli sviluppi più importanti trassero origine dagli studi eseguiti durante la guerra sui fasci di plasma utilizzati per la separazione degli isotopi dell'uranio, cui fece seguito la ricerca postbellica sulla fusione nucleare per la produzione di armi e in prospettiva anche di energia. In effetti i plasmi a temperatura estremamente elevata presentano importanti caratteristiche, in comune con il gas degli elettroni in un metallo a temperatura estremamente bassa. David Bohm (1917-1992) aveva lavorato sul plasma per il Manhattan Project e si era poi trasferito a Princeton nel 1946, dove l'anno seguente arrivò anche David Pines, allora appena laureato, per lavorare con lui. Insieme essi riuscirono a sfruttare molto bene le idee della 'rinormalizzazione quantistica' allora emergenti nel settore della fisica delle particelle elementari. Il problema della rinormalizzazione, ossia della esecuzione dei calcoli per un singolo elettrone nel vuoto circondato da una nube di particelle elementari virtuali, presentava notevoli somiglianze con l'analogo problema relativo a un elettrone in un metallo circondato da una nube di elettroni reali. Le complesse approssimazioni che i teorici della fisica delle particelle stavano sviluppando per il primo problema potevano essere applicate anche al secondo. All'inizio degli anni Cinquanta Bohm e Pines utilizzarono questi nuovi strumenti teorici per eseguire calcoli sui plasmi che risultarono in ottimo accordo con gli esperimenti. Altri teorici diedero il loro contributo, lavorando in maniera parzialmente indipendente. Entro la metà degli anni Cinquanta questi fisici furono in grado di affrontare con una certa sicurezza il problema molto complesso di come tener conto delle interazioni in un gas di elettroni.
Bardeen aveva lasciato i Bell Laboratories nel 1951 per dedicarsi completamente allo studio della superconduttività, iniziando una stretta collaborazione con il suo studente di dottorato J. Robert Schrieffer e il suo studente di postdottorato Leon N. Cooper, entrambi esperti della teoria quantistica dei campi. Cooper si rese conto che sotto condizioni opportune elettroni con spin opposto, anche posti a grande distanza, riescono a legarsi insieme in coppie grazie a una debole interazione attrattiva originata da una medesima deformazione del reticolo ionico, deformazione causata dalla loro stessa presenza. Il comportamento individuale di queste coppie di Cooper ricordava quello dei bosoni, le particelle alle quali le leggi della meccanica quantistica permettono di muoversi collettivamente come se costituissero un unico fluido. Schrieffer riuscì a determinare una funzione d'onda che teneva conto di questo tipo di accoppiamento degli elettroni, e nel 1957 i tre fisici teorici portarono a termine calcoli finalmente in grado di spiegare i risultati degli esperimenti sulla superconduttività.
Molti fisici si opposero all'idea che il problema della superconduttività fosse stato veramente risolto. La teoria BCS (Bardeen-Cooper-Schrieffer) non sembrava in grado di giustificare l'aspetto più importante del fenomeno superconduttivo, consistente nella presenza di una corrente elettrica circolare e costante in un anello di un materiale superconduttore, contenente (necessariamente) alcune impurezze. Un tentativo di spiegazione era stato abbozzato negli anni Quaranta dai fisici teorici, che avevano ipotizzato una quantizzazione del flusso magnetico dell'anello. Una conseguenza di tale quantizzazione sarebbe la necessità di fornire una quantità finita di energia per espellere il flusso stesso dall'anello e arrestare la corrente. Diversi laboratori entrarono in competizione per cercare di verificare la presenza di questa quantizzazione del flusso e la sua effettiva osservazione nel 1961 confermò l'esistenza delle coppie di Cooper.
Ciò non mise a tacere tutte le critiche degli scettici. Insieme ad altri problemi, alcuni teorici misero in evidenza il fatto che la teoria BCS non rispetta l'invarianza di gauge. Quest'ultima è una proprietà matematica che sembra dover essere necessariamente inclusa in ogni teoria riguardante i fenomeni elettromagnetici, dal momento che le simmetrie che si riscontrano nelle leggi generali dell'elettromagnetismo dovrebbero rimanere preservate in tutte le teorie matematiche derivate da quelle stesse leggi. Tuttavia i teorici si resero conto che questo problema formale poteva essere risolto considerando la possibilità di un'arbitraria rottura della simmetria nella transizione dallo stato normale allo stato superconduttivo (il concetto di rottura di simmetria, che era un'idea completamente nuova, era stato da poco introdotto nella fisica delle particelle, dove aveva consentito di superare difficoltà di lunghissima data). Già nel 1963 tutti i dubbi sulla teoria BCS erano stati fugati. Il mistero della superconduttività era stato finalmente risolto completamente, o almeno così erano convinti i fisici. Nel 1987 però la scoperta di alcune ceramiche che presentano superconduttività fino a temperature superiori ai 90 K, molto maggiori di quelle prevedibili con la teoria BCS, avrebbe mostrato che in questo campo permanevano aspetti profondi ancora inesplorati. In definitiva, i risultati della teoria dei fenomeni collettivi deludevano le aspettative dei fisici, i quali avevano sperato che la stessa sarebbe stata in grado di fornire indicazioni per la scoperta, ardentemente desiderata, di un superconduttore a temperatura ambiente.
Invece, con un repentino capovolgimento, la teoria aprì la strada a un genere completamente diverso di applicazioni. Il punto di partenza fu rappresentato dalla dimostrazione di Esaki del fenomeno di tunnelling nelle giunzioni a semiconduttore. Ivar Giaever sottopose a verifica una delle predizioni fondamentali della nuova teoria BCS, riguardante l'intervallo energetico proibito (gap) che separa le coppie di Cooper dai livelli continui di energia, misurando il tunnelling in un campione costituito da due strati di superconduttore separati da uno strato microscopicamente sottile di materiale normale. Giaever realizzò questo esperimento nel 1960: i suoi risultati costituirono un'importante conferma per la teoria BCS e aprirono una strada completamente nuova per studiare le proprietà dei superconduttori.
Il lavoro di Giaever colpì l'interesse di Brian Josephson, uno studente di Pippard a Cambridge. Con alcuni calcoli matematici, egli comprese che la teoria del tunnelling era in realtà incompleta. Nel 1962 dimostrò che i due strati di materiale superconduttore non devono necessariamente essere trattati come indipendenti, potendo risultare collegati per mezzo di una relazione quantistica per le loro fasi. Le previsioni conseguenti a questa ipotesi, ben presto confermate dagli esperimenti, erano spettacolari. La quantità di carica elettrica che attraversava la giunzione oscillava quando il voltaggio veniva aumentato con incremento costante e si poteva osservare anche la persistenza di una certa intensità di corrente in assenza di voltaggio applicato. La determinazione della frequenza di queste oscillazioni fu utilizzata per misurare alcune costanti fondamentali della fisica, con una precisione molto maggiore che nel passato. Ancora più importante è il fatto che le correnti osservate a voltaggio nullo risultassero influenzate in maniera straordinariamente sensibile dai campi magnetici. Questa proprietà fu sfruttata nella realizzazione di uno strumento, il dispositivo superconduttivo a interferenza quantistica (o SQUID dall'acronimo in lingua inglese), che alla fine trovò applicazioni in campi diversi, come le ricerche petrolifere o gli studi sul cervello umano.
Lo studio della superconduttività richiedeva esperimenti da eseguire a temperature estremamente basse. Prima della guerra il settore delle basse temperature aveva rappresentato niente di più che uno dei tantissimi campi di specializzazione parzialmente distinti nei quali la fisica stessa era suddivisa. In particolare, la superconduttività era sembrata costituire una questione di interesse fine a sé stessa. Ma nel corso degli anni Cinquanta, gli strani fenomeni scoperti nel regime delle temperature di pochi gradi superiori allo zero assoluto iniziarono a catturare l'interesse di molte altre aree della fisica. Questo ampliamento di prospettiva fu stimolato dal tentativo di spiegare le meravigliose proprietà dell'elio superfluido.
Una delle predizioni sorprendenti delle tante teorie alternative proposte prima della guerra era l'esistenza di un secondo suono, ossia di onde sonore in grado di propagarsi attraverso l'elio superfluido per effetto di differenze di temperatura invece che di pressione, come avviene per il suono ordinario. Alcuni esperimenti eseguiti a Mosca nel 1944 confermarono tale predizione. Landau ne trovò una spiegazione teorica partendo dall'ipotesi audace di considerare una quantizzazione degli stati dell'intero liquido invece che dei singoli atomi che lo costituivano. La descrizione dell'elio liquido fornita da Landau presupponeva un'ampia gamma di eccitazioni collettive diverse, dai fononi ai rotoni fino al moto dei vortici quantizzati. Gli esperimenti eseguiti con la diffusione dei neutroni fornirono una conferma dei suoi calcoli. A metà degli anni Cinquanta, Richard P. Feynman (1918-1988) sviluppò insieme con altri fisici teorie più sofisticate sulla base delle quali si poteva prevedere, tra l'altro, che un superfluido posto in un recipiente cilindrico ruotante si sarebbe diviso in gruppi di vortici quantizzati. Nel 1960 gli esperimenti confermarono la validità di quest'ultima sorprendente predizione.
In aggiunta all'4He, piccole quantità dell'isotopo 3He iniziarono a essere disponibili dopo la fine della guerra grazie ai processi di decadimento radioattivo del trizio prodotto nei reattori nucleari. Non ci si aspettava che quest'isotopo più leggero fosse un bosone e di conseguenza era necessario lo sviluppo di un approccio teorico differente. Landau riuscì in quest'impresa nel 1958, formulando previsioni che gli esperimenti avrebbero verificato nel giro di pochi anni. Benché la liquefazione dell'3He fosse riuscita già nel 1948 a Los Alamos, fu necessario attendere il 1971 perché un gruppo di ricercatori a Cornell riuscisse a raffreddarlo fino al punto di farlo diventare superfluido. Mediante nuove e molto ingegnose tecniche di raffreddamento essi riuscirono ad abbassare la temperatura del campione fino ad appena 2 millesimi di grado sopra lo zero assoluto. In questo fluido le leggi della meccanica quantistica si manifestano con sorprendenti effetti macroscopici, anche se la loro applicazione è strettamente limitata al livello submicroscopico: in un certo senso è come se il campione si comportasse nello stesso modo di un cristallo, e non come un normale fluido.
Le tecniche di raffreddamento necessarie per eseguire questi esperimenti si basavano sull'eliminazione del calore relativo ai processi di evaporazione e solidificazione. Questa è soltanto una delle molteplici ragioni che spiega l'interesse dei fisici teorici per i cambiamenti di stato. L'ispirazione maggiore venne da un modello per il magnetismo che Ernest Ising (1900-1998) aveva introdotto negli anni Venti. Il modello di Ising consisteva di un reticolo bidimensionale di ioni, con spin orientati parallelamente (up) o antiparallelamente (down) a una direzione fissata, in grado di interagire soltanto con i loro primi vicini. Sotto condizioni opportune queste interazioni potevano provocare una transizione da una fase non magnetica a una magnetica. I fisici gradualmente si resero conto che questo modello avrebbe potuto fornire indicazioni utili anche per altri tipi di transizione di fase, quali la fusione di un solido, la creazione di una struttura ordinaria in una lega binaria, e forse persino per la transizione superconduttiva. La costruzione di un modello matematico generale per queste transizioni rimaneva comunque un traguardo irraggiungibile.
Durante la guerra Lars Onsager (1903-1976), che lavorava presso la Yale University, riuscì a risolvere il modello di Ising in due dimensioni calcolando in maniera esatta la sua funzione di partizione. Ciò consentì a Onsager di determinare la natura della transizione di fase ferromagnetica e i fenomeni critici a essa associati, ossia i sorprendenti cambiamenti che si verificano nel comportamento di molte variabili fisiche quando ci si avvicina alla transizione. Dopo la guerra la soluzione di Onsager al problema di Ising costituì per alcuni teorici uno stimolo ad approfondire lo studio delle transizioni di fase. Rimanendo piuttosto isolati, tali fisici, per la maggior parte americani ma anche inglesi, sovietici e giapponesi, analizzarono da ogni punto di vista diverse idee alla ricerca di una metodologia utile a risolvere il problema. Sia la meccanica statistica sia la termodinamica sia, infine, persino i metodi derivati dalla teoria dei campi quantistici trovarono un posto in un'ideale 'cassetta degli attrezzi' comune. Ogni approccio utilizzato richiedeva strumenti matematici eccezionalmente difficili e sofisticati (dipendenti dalle preferenze specifiche dei diversi teorici), quali le funzioni combinatorie, le espansioni in serie, il calcolo matriciale e la teoria dei gruppi. Negli anni Cinquanta alcuni teorici si dedicarono ad analizzare in maniera sempre più approfondita le proprietà del modello di Ising bidimensionale, mentre altri tentarono ‒ inizialmente con scarso successo ‒ di calcolare soluzioni per il caso tridimensionale, che corrispondeva effettivamente al caso dei materiali reali.
Già negli anni Sessanta i teorici cominciarono a conseguire progressi considerevoli. Tuttavia non si era raggiunta una comprensione completa e 'rivoluzionaria' delle transizioni di fase. Come numerosi problemi che stavano emergendo, non soltanto nella fisica dello stato solido ma anche in aree molto diverse che andavano dalla meteorologia all'ecologia, non esisteva alcuna trattazione delle transizioni di fase che potesse essere sintetizzata in un piccolo numero di frasi o di equazioni. Gli scienziati dovevano accontentarsi di calcoli che esplorassero le complesse proprietà di questi sistemi e di misurare la validità di un dato calcolo semplicemente controllando quanto preciso fosse l'accordo con le osservazioni. In questo settore, come in molti altri, a partire dagli anni Sessanta i fisici teorici si impadronirono gradualmente delle tecniche idonee ad affrontare i problemi a molti corpi, utilizzando i computer per trattare fenomeni complessi sotto forma di una perturbazione delle equazioni valide per il problema di una singola particella.
Un tipico settore in cui questo tipo di lavoro procedeva con successo era lo studio dei fenomeni critici, come l'opalescenza critica consistente nella diffusione di una luce lattiginosa in un liquido che si trovi in prossimità di una transizione di fase. I teorici scoprirono che è possibile spiegare questi fenomeni in termini di correlazioni a lungo raggio delle fluttuazioni spaziali e temporali della densità del liquido. Nel corso degli anni Sessanta i fisici sperimentali riuscirono a verificare con precisione i risultati dei calcoli teorici, inviando raggi laser attraverso liquidi vicini a una transizione di fase. Altri teorici ottennero invece successi nel campo delle leghe binarie. Bombardando un metallo fuso con un fascio di neutroni, fu possibile confermare la predizione che in prossimità di una transizione di fase i neutroni, come la luce nel fenomeno dell'opalescenza critica, vengono diffusi in misura di gran lunga maggiore che in condizioni normali. Ciò rappresentò una conferma anche per i calcoli per la transizione ferromagnetica (il problema posto inizialmente da Ising nel 1920), che i fisici teorici erano infine riusciti a portare a termine utilizzando la teoria dei campi quantistici.
Sviluppi tecnologici inattesi furono causati dalla capacità di trattare le transizioni tra fasi ordinate e fasi disordinate. Un esempio è quello dei cristalli liquidi, che erano noti fin dal XIX sec. ma rimanevano ancora ben poco compresi. Negli anni Sessanta Pierre-Gilles de Gennes abbandonò lo studio delle transizioni di fase magnetiche per dedicarsi allo studio di strutture molecolari ancora più complesse. Nel giro di dieci anni egli riuscì a costituire un gruppo di ricercatori a Orsay, in Francia, per lavorare sul problema dei cristalli liquidi (che sono materiali parzialmente strutturati e caratterizzati da un ordine a lungo raggio imperfetto). Gli studi su differenti tipi di transizioni di fase svolti dal suo e da altri gruppi si rivelarono di grande utilità per lo sviluppo, già in corso, di alcune innovazioni tecnologiche, come i display a cristalli liquidi che divennero presto universalmente diffusi negli orologi da polso e in molti altri strumenti.
Un osservatore esterno, impressionato dalla crescente padronanza con cui venivano trattati gli stati esotici della materia, dai superfluidi ai cristalli liquidi, avrebbe potuto immaginare che sia la teoria sia gli esperimenti avrebbero ottenuto successi in maniera ancora più rapida nel campo più ordinario dei fluidi semplici. Ma i fisici sapevano bene quale fosse realmente la situazione. Non disponevano di nessuna teoria generale e vi erano poche prospettive di riuscire a elaborarne una. Durante gli anni Sessanta, computer dotati di potenza sempre crescente consentirono di realizzare calcoli basandosi sulle leggi fondamentali dei gas, dando ragione, per esempio, delle correnti su larga scala che caratterizzano il tempo meteorologico; questo stesso approccio si rivelò tuttavia incapace di trattare la descrizione dei flussi in un liquido (come, per es., negli oceani).
Il problema principale della descrizione dei fluidi fu per lungo tempo quello della turbolenza, la cui natura caotica sembrava resistere a ogni tentativo di descrizione scientifica. I fisici teorici conseguirono importanti risultati durante gli anni Cinquanta e Sessanta, migliorando la sua comprensione qualitativa fino al punto che non rimase nessun fenomeno osservato negli esperimenti che potesse essere considerato completamente un mistero; furono ottenute anche rozze stime per alcuni fenomeni turbolenti particolari. Tuttavia alla maggior parte delle predizioni teoriche mancava un riscontro sperimentale e molti esperimenti che venivano portati a termine non producevano altro che descrizioni statistiche. Un esempio di questa situazione è costituito dai lavori sul rumore. Negli anni Cinquanta James Lighthill (1924-1998) della Manchester University pubblicò un lavoro teorico pionieristico sulla generazione delle onde nei fluidi. Il suo primo articolo non conteneva alcun riferimento a lavori precedenti, perché effettivamente non era stato pubblicato ancora nulla di notevole sull'argomento. Nonostante la potenza della trattazione matematica di Lighthill, la fisica iniziò soltanto molto gradualmente a fornire risultati di una qualche utilità per problemi pratici, come la riduzione del rumore provocato dalle turbine a reazione. La situazione era anche peggiore per alcuni fluidi di notevole interesse pratico, come il sangue o l'impasto del pane. Negli anni Sessanta si stavano appena avviando indagini serie su questi fluidi e l'unico la cui fisica era stata veramente compresa fino in fondo era il più 'strano' di tutti: l'elio liquido.
Nel 1970 il giornale di fisica di maggior importanza a livello mondiale, il "Physical review" edito dall'American Physical Society, era divenuto così voluminoso che gli editori furono costretti a suddividerlo in più volumi, decidendo di dedicare un intero volume alle attività di ricerca nella fisica dello stato solido, che alla fine risultò essere quello di maggiori dimensioni; lo stesso accadde in Gran Bretagna al "Journal of physics" e in Germania alla "Zeitschrift für Physik". Numerose altre organizzazioni istituzionali confermarono che la fisica dello stato solido era ormai divenuta un'entità di notevole dimensione e autosufficiente, che occupava una posizione di rilievo nella fisica, anche se i diversi settori di specializzazione di sua pertinenza continuavano a mantenere una qualche autonomia. Si tenevano regolarmente conferenze internazionali interamente dedicate al magnetismo, alle dislocazioni e così via. Organizzazioni di più antica fondazione, come la Society of Rheology (che si occupava dello studio dei flussi) e l'International Union of Crystallography, preservarono intatta la loro influenza. Tuttavia, i professionisti di un campo specifico di solito appartenevano a istituzioni che li portavano ad avere stretti contatti con ricercatori di un'ampia gamma di altri settori.
I problemi riguardanti i solidi erano ormai l'oggetto della ricerca di circa un quarto dei fisici americani, e presumibilmente, di molti fisici del resto del mondo. Al contrario di quello che avveniva per molti altri settori scientifici, più della metà di questi ricercatori non lavorava nelle università ma in laboratori industriali o militari. C'erano anche istituzioni ibride, come i centri di scienza dei materiali che le università americane avevano creato durante gli anni Sessanta sfruttando i finanziamenti del ministero della Difesa. Come si evince dal termine stesso, il campo di ricerca non richiedeva il coinvolgimento soltanto dei fisici dello stato solido, ma anche quello di chimici, di ingegneri e di molti altri specialisti accomunati da uno spirito interdisciplinare. Utilizzando ogni strumento a disposizione, dalle teorie quantistiche alle procedure sperimentali, i gruppi di ricerca scoprirono nel corso degli anni una gamma sempre maggiore di materiali straordinari, quale per esempio la ceramica dei rivestimenti, che fornì la protezione necessaria agli astronauti dell'Apollo di ritorno dalla Luna. Come fecero gli stessi fisici, nel corso degli anni Sessanta molti ricercatori cominciarono a riferirsi al proprio settore di indagine usando il termine materia condensata piuttosto che quello di stato solido. In questa ridefinizione era implicito un invito a riconoscere che il campo in questione non rappresentava un tipo di fisica meno fondamentale della cosmologia o degli studi sulle particelle elementari.
La fisica della materia condensata ha un forte radicamento teorico. Intorno alla metà degli anni Sessanta i fisici teorici entrarono in possesso di tecniche per implementare una potente teoria quantistica perturbativa a molti corpi e iniziarono ad applicarla non soltanto allo studio dei solidi e dei fluidi di bassa temperatura, come è stato descritto in precedenza, ma anche alla fisica nucleare (per approfondire i fenomeni collettivi delle particelle costituenti il nucleo dell'atomo), all'elettrodinamica quantistica di insiemi di particelle elementari e persino a problemi di astrofisica, come l'insieme di neutroni ad alta densità di cui sono costituite le pulsar, o il fluido ancora più denso che rappresenta il cuore della cosmologia del big bang. La vera specializzazione di questi teorici aveva meno a che fare con il particolare tipo di materia oggetto del loro studio che con gli strumenti matematici a loro disposizione.
La stragrande maggioranza delle attività di ricerca nel campo della materia condensata continuò a essere diretta verso le applicazioni tecnologiche. Gli specialisti non si occupavano dal punto di vista teorico di problemi generali e neanche di problemi più specifici, come le proprietà di una particolare ceramica o lega metallica oppure di uno specifico campione di materiale semiconduttore. Già all'inizio degli anni Settanta in molti settori si era ormai in grado di realizzare previsioni precise sulle proprietà di nuove combinazioni di atomi. Questo significava che si poteva iniziare a progettare materiali e dispositivi a stato solido su richiesta. Soltanto pochi e tra i più sagaci si resero conto che questi fisici stavano aprendo una nuova epoca nella storia della civilizzazione umana: quella che ben presto sarebbe stata chiamata l'era dell'informazione.