La seconda rivoluzione scientifica: fisica e chimica. Apparati sperimentali
Apparati sperimentali
I più importanti 'apparati sperimentali' sviluppati nel periodo 1920-1945 sono stati gli acceleratori di particelle e gli strumenti rivelatori a essi collegati, che hanno consentito la nascita della fisica nucleare e la scoperta dell'energia atomica. Di notevole rilievo sono state anche le apparecchiature criogeniche per lo studio dei fenomeni fisici in condizioni prossime allo zero assoluto, come la superconduttività e le relative molto promettenti applicazioni su larga scala.
L'interesse per gli strumenti e le apparecchiature può essere tale da distogliere, in certi casi, l'attenzione dalle ricerche per le quali sono stati realizzati; la realizzazione e il miglioramento di uno strumento finiscono allora per divenire l'attività principale dei ricercatori, sostituendo il programma di esperimenti originale. Questo rischio è particolarmente elevato nel campo degli acceleratori di particelle, dove il raggiungimento di un livello sempre più alto di energia del fascio di particelle può divenire lo scopo dominante delle attività di un laboratorio, a spese delle indagini sulla fisica nucleare o dello studio delle particelle per le quali l'acceleratore è stato costruito.
Macchine per la produzione del vuoto
Nel periodo qui preso in esame nessun laboratorio fisico o chimico poteva fare a meno di un dispositivo per la produzione del vuoto. Quando era richiesto un vuoto molto spinto, come nel caso di un acceleratore di particelle, si utilizzavano due pompe in serie di diverso tipo, per assicurare la continuità necessaria nel passaggio dalla pressione atmosferica, 760 mmHg, a un vuoto spinto, pari generalmente a 10−6 mmHg. I due tipi più comuni erano una 'pompa di prevuoto' meccanica e una pompa da vuoto del tipo a diffusione: la prima alimentava la seconda. La pompa di prevuoto, in genere un apparecchio rotativo con dispositivo di tenuta a olio, aspira il gas in una camera attraverso una bocca di aspirazione per mezzo di un rotore. Una paletta mobile divide la camera in due sezioni (A e B). Dopo essere stato trasferito da A a B, il gas compresso viene espulso attraverso un foro di efflusso, chiuso da una valvola che impedisce al gas di tornare indietro. La valvola e il punto di contatto del rotore sono dotati di dispositivi di tenuta a olio; la pompa rotativa può raggiungere una pressione di 10−3 mmHg. La sua portata, espressa per esempio in m3/h, dipende dalla velocità alla quale viene fatta funzionare. Una pompa a diffusione è composta essenzialmente da un manicotto raffreddato ad acqua, contenente sul fondo un bollitore dotato di ugello atto a riscaldare olio o mercurio; il vapore così prodotto viene espulso ad alta velocità, diretto verso il basso contro il manicotto raffreddato e quindi nuovamente condensato. Entrando in contatto con il getto di vapore, le molecole di gas nel recipiente in cui si vuole creare il vuoto sono trascinate dal getto stesso nella parte inferiore della pompa, dove sono rimosse da una seconda pompa, di solito una pompa di prevuoto meccanica del tipo sopra descritto. In tal modo si ottiene in genere una pressione limite di 10−6 mmHg anche se, con particolari accorgimenti, alcune pompe possono raggiungere un vuoto di 10−9 mmHg.
Tubi per raggi X
I primi tubi per raggi X ‒ tubi a scarica riempiti di gas ed eccitati per mezzo di una bobina di accensione e un interruttore ‒ furono sostituiti da tubi ad alto vuoto con catodo a filamento incandescente. Questi ultimi furono sviluppati in larga parte da William D. Coolidge (1873-1975) negli anni Venti presso la General Electric Company di New York, e vennero utilizzati in radiologia e radioterapia. Il bersaglio era costituito da una placca di tungsteno inserita in un blocco di rame. Nel 1926 le pareti di vetro furono rivestite con un tubo di rame per impedire l'accumulo di carica elettrica sul vetro stesso, consentendo a questi apparecchi di raggiungere tensioni di 350 kV. Per ottenere differenze di potenziale più elevate, Coolidge collegò in serie due o più ampolle, facendo passare il fascio di elettroni attraverso finestre a lamina, che agivano da anodo in un tubo e da catodo in quello successivo. I tubi a bersaglio fisso di tungsteno furono sostituiti negli anni Trenta da tubi ad anodo rotante, che permettevano di disperdere il calore prodotto dal bombardamento di elettroni su una superficie più vasta, e consentivano di ottenere fasci di raggi X molto più intensi senza il rischio di fondere l'apparecchiatura.
Acceleratori e rivelatori di particelle
L''antenato' dei moderni acceleratori di particelle è il tubo a vuoto di Heinrich Geissler (1815-1879), costruito a Bonn intorno al 1860. Fornito di elettrodi di platino alle due estremità, riempito di gas rarefatti e alimentato da un tipo di bobina introdotto da Heinrich Daniel Rühmkorff (1803-1877), questo dispositivo permise al mentore di Geissler, Julius Plücker (1801-1868), di portare a termine le sue ricerche pionieristiche sulla scarica elettrica in vacuo. I primi passi verso la costruzione di un acceleratore di particelle valido furono compiuti da Ernest Rutherford (1871-1937) con la celebre ricerca condotta alla University of Manchester intorno al 1917. Bombardando atomi di azoto con particelle α provenienti da una fonte radioattiva, egli li indusse a emettere ioni idrogeno. Il primo esempio di una trasmutazione di elementi chimici (azoto in ossigeno) provocata artificialmente era ormai assai vicino, come pure la scoperta del protone.
Le ricerche sulla trasmutazione dei nuclei degli elementi leggeri furono proseguite negli anni Venti a Cambridge da Rutherford e dal suo collaboratore, James Chadwick. Nel discorso tenuto nel 1927 alla Royal Society quale presidente, Rutherford sottolineò la necessità di disporre di "una copiosa sorgente di atomi e di elettroni" dotati di un'energia individuale molto superiore a quella della particelle α e β emesse dalle sostanze radioattive. In effetti, erano necessarie non soltanto tensioni acceleranti capaci di generare energie di molti milioni di volt paragonabili a quelle di legame nucleare, ma anche sorgenti di correnti molto forti. Negli esperimenti in corso a quel tempo, una sola particella α su un milione colpiva il bersaglio, precludendo la possibilità di misurazioni quantitative.
Molti progetti industriali per generatori di alta tensione furono elaborati in Inghilterra, in Germania e negli Stati Uniti, per giungere, nel 1932, alla costruzione di un generatore di impulsi ad alta tensione capace di raggiungere i 6 MV. Nel frattempo, a pochi metri di distanza dall'ufficio di Rutherford al Cavendish Laboratory, si stava sperimentando un approccio di tipo più modesto. Con l'approvazione dello stesso Rutherford, Ernest Walton e John Cockcroft avevano adottato il metodo di moltiplicazione della tensione ideato da Heinrich Greinacher nel 1921, che permetteva di trasformare una corrente alternata a bassa tensione in corrente continua ad alta tensione. Usando un sistema trasformatore-raddrizzatore e un tubo a scarica, il 14 aprile 1932 i due ricercatori diressero un fascio di protoni di pochi centinaia di keV verso un bersaglio di litio. Un apposito schermo di solfuro di zinco si illuminò durante l'esperimento. I lampi di scintillazione erano causati dall'urto di particelle α, emesse dal litio sotto il bombardamento di protoni, ossia il contrario della reazione (α,p) ottenuta da Rutherford tredici anni prima. Si trattava della prima disintegrazione nucleare per mezzo di particelle artificialmente accelerate:
[1] 7Li+1H→24He+17MeV.
Contemporaneamente, nel Department of Physics della University of California a Berkeley, Ernest O. Lawrence (1901-1958) sviluppava le idee contenute in un articolo di Rolf Wideröe, un norvegese che aveva da poco conseguito il dottorato alla Technische Hochschule di Aquisgrana. Basandosi su uno schema di Gustaf Ising per l'accelerazione di ioni pesanti, che in sostanza si può considerare un acceleratore lineare, Wideröe era riuscito a raddoppiare la tensione degli ioni di sodio (da 20 a 40 KeV) accelerandoli per mezzo di una coppia di elettrodi ad alto potenziale separati da un 'tubo di deriva' con funzioni di schermatura elettrostatica. Un successo modesto, senza dubbio, che dimostrava però, per la prima volta, l'esistenza dell'accelerazione di risonanza. Questo suggerì a Lawrence di sostituire una serie di elettrodi cilindrici disposti in linea retta con due elettrodi utilizzati più volte. Ciò implicava la necessità di deviare ripetutamente un fascio di ioni positivi, per esempio protoni, mediante gli elettrodi servendosi di un campo magnetico. La chiave del problema fu l'intuizione di Lawrence che la velocità angolare degli ioni circolanti in un campo magnetico è indipendente dalla velocità e dal raggio secondo la relazione:
[2] ω=v/r=He/m.
Gli ioni veloci descrivono circonferenze più ampie, quelli lenti circonferenze più brevi. Gli ioni di massa m e carica e, allora, possono essere fatti viaggiare in fase con un campo elettrico oscillante in un campo magnetico H: costringendoli ad attraversare ripetutamente l'intervallo che separa i due elettrodi a forma di 'D', e a descrivere una spirale verso l'esterno, si ottiene a ogni giro un aumento della loro energia.
Uno studente di Lawrence, Niels Edlefsen, costruì nel 1930 un modello rudimentale del 'ciclotrone'. Nello stesso anno un altro studente, Stanley Livingston, ottenne ioni molecolari di idrogeno di 80 KeV in un ciclotrone con un diametro polare di 4 pollici. Nel 1932 fu costruito un ciclotrone di 10 pollici da oltre 1 MeV di potenza, cui seguirono acceleratori per usi medici sempre più grandi, da 27, 37 e 60 pollici di diametro. Alla fine degli anni Trenta esisteva dunque un gran numero di ciclotroni in tutto il mondo, oltre che negli Stati Uniti, in quanto, esattamente come era avvenuto molti anni prima con il tubo di Geissler, nessun dipartimento di fisica degno di nota poteva esserne sprovvisto.
L'equazione [2], che regola le condizioni di esercizio del ciclotrone, presenta un limite, ossia quello di considerare costante la massa m. In effetti, ogni particella accelerata subisce un aumento di massa, in accordo con la teoria della relatività; di conseguenza, le particelle orbitanti tendono a ritardare gradualmente rispetto all'oscillazione costante del campo di radiofrequenza. Poiché l'aumento di massa non supera l'1%, l'effetto risulta in genere trascurabile e i ciclotroni dell'ordine delle decine di MeV possono essere fatti funzionare modulando il campo magnetico mediante l'inserimento di spessori di ferro. Tuttavia si riteneva che per il grande ciclotrone da 184 pollici, portato a termine dopo la Seconda guerra mondiale a Berkeley, l'aumento di massa relativistico avrebbe comportato gravi inconvenienti. Nel frattempo, intervenne però la scoperta del principio di stabilità di fase, enunciato da Vladimir Veksler (1907-1966) in Unione Sovietica e, indipendentemente, da Edwin M. McMillan (1907-1991) a Berkeley. I due scienziati riuscirono a dimostrare che era possibile ridurre il potenziale di radiofrequenza nell'intervallo di accelerazione via via che le particelle acquistavano energia, e di conseguenza massa, in modo da portarle a formare un unico pacchetto. Il nuovo sincrociclotrone da 184 pollici, come fu battezzato il ciclotrone modulato in frequenza, produceva protoni di 350 MeV.
Veksler e McMillan dimostrarono inoltre che lo stesso effetto poteva essere ottenuto incrementando la potenza del campo magnetico in sincronia con l'aumento di energia delle particelle. Operando simultaneamente sulla frequenza e sul campo magnetico era possibile mantenere le particelle su un'orbita circolare di raggio costante, invece che su un'orbita a spirale, come nei ciclotroni convenzionali o modulati in frequenza. La camera a vuoto poteva essere sostituita da un anello o ciambella con una modesta sezione trasversale; le particelle erano mantenute sull'orbita stabilita da un magnete ad anello disposto tutto intorno alla ciambella. Nasceva così il sincrotrone, la macchina acceleratrice di importanza cruciale che avrebbe dominato la scena scientifica a partire dal 1945.
Un altro gruppo di scienziati, guidato da Merle A. Tuve (1901-1982), amico d'infanzia di Lawrence, esplorava intanto una via completamente diversa per ottenere tensioni più elevate da utilizzare nello studio degli atomi e dei nuclei, servendosi del laboratorio del Department of Terrestrial Magnetism della Carnegie Institution a Washington. L'approccio iniziale era basato sull'uso di un tubo a scarica alimentato da una bobina Tesla; il carattere oscillatorio del potenziale fornito dalla bobina risultò però inadeguato all'accelerazione dei protoni negli esperimenti nucleari di tipo quantitativo. Tuve e i suoi colleghi adottarono allora il generatore elettrostatico, inventato da Robert J. Van de Graaff (1901-1967) intorno al 1928, in cui un sistema elettromeccanico, costituito da una cinghia isolante caricata e scaricata per effluvio che gira tra la terra e il terminale ad alta tensione, alimenta l'accumulo di carica al terminale stesso. La tensione così accumulata può essere scaricata sotto forma di scintilla per suscitare lo stupore dei visitatori di un museo o essere più utilmente impiegata per accelerare un fascio di particelle cariche, creando una notevole differenza di potenziale in un tubo a vuoto. Nel 1933 Tuve, Lawrence R. Hafstad e Odd Dahl effettuarono una serie di ricerche di precisione sul nucleo servendosi di un generatore di 2 m in grado di superare i 1000 kV.
Lawrence non escludeva che la sequenza lineare di elettrodi e di 'tubi di deriva' di Wideröe potesse fornire una valida, sia pure meno elegante, soluzione alternativa per raggiungere l'accelerazione di risonanza; gli oscillatori a bassa frequenza per tubi a vuoto disponibili negli anni Trenta limitavano però il campo di applicazione dell'acceleratore lineare agli ioni pesanti. David H. Sloan, anch'egli studente di Lawrence, riuscì poco prima della Seconda guerra mondiale ad accelerare un fascio di ioni di mercurio fino a oltre 1 MeV in una macchina acceleratrice di 1 m di lunghezza e con una sezione di 30 cm. Il primo acceleratore lineare (o 'linac') protonico fu realizzato a Berkeley da Luis W. Alvarez nel 1948.
Per quanto riguarda le tecniche di rivelazione delle particelle nei primi esperimenti al Cavendish Laboratory prevaleva ancora il metodo di conteggio manuale dei lampi di scintillazione su schermi fosforescenti. Uno schermo fosforescente, formato da una lastra di vetro spolverata di solfato di zinco polverizzato con l'aggiunta di una piccola quantità di rame, era scrutato da un osservatore assuefatto al buio per mezzo di un microscopio capace di 20-50 ingrandimenti. Di solito un osservatore era in grado di registrare con certezza fra le 3 e le 100 scintillazioni al minuto. Verso la fine degli anni Venti questo metodo laborioso, che richiedeva una rigida autodisciplina da parte dell'osservatore, fu sostituito da metodi automatici di rilevazione e di conteggio delle particelle cariche, molti dei quali erano basati sulla ionizzazione di un gas in seguito all'urto delle particelle cariche contro le sue molecole. Un campo elettrico stabilito tra due elettrodi serviva a dirigere gli ioni carichi e a produrre impulsi elettrici, che potevano essere rilevati in modi diversi. Negli elettrometri gli ioni primari erano raccolti senza amplificazione e rivelati attraverso la deflessione balistica; l'esempio migliore di questo genere di apparecchi era forse l'elettrometro di Hoffmann. La ionizzazione primaria poteva, tuttavia, essere amplificata da ulteriori collisioni nel gas, come nel contatore proporzionale sviluppato da Rutherford e Hans Geiger. In seguito, lo sviluppo delle valvole elettroniche permise la realizzazione dell'amplificatore lineare, che moltiplicava la ionizzazione primaria per mezzo di un circuito di conteggio a più stadi. L'amplificatore lineare fu inventato a Berlino da Greinacher e messo a punto da Charles E. Wynn-Williams e dai suoi colleghi al Cavendish Laboratory intorno al 1930.
Secondo alcuni il dispositivo più efficiente per la scoperta di nuove particelle dell'intera storia della fisica, almeno fino al 1947, fu rappresentato dalla camera a nebbia. Inventata da Charles T.R. Wilson (1869-1959) al Cavendish Laboratory, era composta da un volume cilindrico di aria purificata, saturata di vapore acqueo e sottoposta a un'espansione adiabatica in modo da produrre uno stato momentaneo di supersaturazione, durante il quale l'acqua si condensava su tutti gli ioni molecolari presenti.
Le principali modifiche apportate successivamente all'apparato originario includevano: il posizionamento della camera all'interno di un campo magnetico assiale omogeneo, che consentiva di valutare il momento di una particella carica in base al raggio di curvatura del tracciato e alla forza del campo; l'introduzione di lamine metalliche collocate trasversalmente nella camera, in modo da dedurre la polarità della carica dal cambiamento di curvatura associato alla perdita di energia conseguente al passaggio attraverso la lamina; l'innesco dell'espansione in occasione dell'osservazione di impulsi simultanei (coincidenze) in contatori Geiger-Müller collocati sopra e sotto la camera, che consentiva uno studio approfondito dei raggi cosmici.
Fascio elettronico
Nel periodo tra le due guerre mondiali le apparecchiature per la diffusione di elettroni assunsero grande importanza, dall'indagine pratica dell'emissione secondaria proveniente da griglie e piastre collocate nei tubi a vuoto e in altre applicazioni, al loro uso come sonde sperimentali per l'esplorazione delle strutture cristalline e della struttura esterna al nucleo degli atomi. Tipicamente, l'apparecchio era formato da un tubo a vuoto dotato di un cannone elettronico, da un bersaglio metallico inclinato di 45° rispetto al fascio elettronico incidente e da un collettore a coppa di Faraday che poteva essere fatto ruotare in senso azimutale lungo l'ampiezza angolare dei possibili percorsi degli elettroni ed era connesso a un galvanometro. Il cannone elettronico era formato invece da una forcina di sottile filo di tungsteno, mantenuta a un potenziale negativo stabile (tra i 50 e i 100 kV); gli elettroni penetravano nell'apparecchio attraverso un'apertura anodica. Utilizzando un apparecchio di questo tipo, dotato di bersagli monocristallini di nichel, Clinton J. Davisson (1881-1958) e Lester H. Germer (1896-1971) dei Bell Laboratories dimostrarono nel 1927 la diffrazione elettronica con una figura di interferenza (i cosiddetti quantum bumps, 'gobbe quantistiche'), cioè la natura ondulatoria dell'elettrone, un fenomeno previsto da Louis de Broglie. La scoperta si dovette a un incidente di laboratorio: inizialmente gli elettroni sembravano diffondersi in tutte le direzioni, comportandosi come particelle classiche, ma, quando una contaminazione casuale del bersaglio di nichel obbligò Davisson e Germer a 'trattare' il bersaglio ad alta temperatura per rimuovere le relative impurità, gli atomi di nichel mutarono la propria disposizione, passando da una configurazione casuale a un reticolo cristallino perfettamente regolare. Inaspettatamente gli elettroni cominciarono a produrre figure di diffrazione particolari, che ne rivelavano la natura ondulatoria.
Alla luce di questa scoperta si pensò ben presto di utilizzare gli elettroni per l'osservazione di strutture estremamente piccole mediante un microscopio elettronico. In un microscopio ottico l'oggetto da esaminare è illuminato dalla luce che, per ingrandire l'immagine, si focalizza per mezzo di un sistema di lenti. Un elettrone dotato di un'accelerazione determinata da una differenza di potenziale di decine di migliaia di volt ha una lunghezza d'onda di 0,005 nm ca., 100.000 volte più corta di quella della luce visibile. Il fisico tedesco Ernst Ruska (1906-1988), con l'aiuto del suo direttore di ricerca Max Knoll, costruì nel 1931 alla Technische Hochschule di Berlino il primo microscopio elettronico: si trattava di un microscopio 'a emissione', che utilizzava i campi magnetici come lenti per focalizzare gli elettroni e produrre un'immagine del catodo sorgente del fascio elettronico. Nel 1933 Ruska realizzò un microscopio elettronico a trasmissione in cui il fascio di elettroni attraversava l'oggetto da esaminare. Il primo microscopio elettronico funzionante costruito nell'America Settentrionale fu messo a punto nel 1938 dal Department of Physics della University of Toronto, sotto la direzione di Eli F. Burton.
Grandi magneti ad alta intensità di campo
Gli elettromagneti in lega ferro-rame ad alta intensità di campo costituiscono l'elemento tecnico centrale di tutti gli acceleratori di particelle circolari. Essi stessi sono inoltre oggetto di studio, rappresentano degli strumenti della ricerca di base anche nei campi del paramagnetismo nucleare, del raffreddamento magnetico, della magnetoottica, e sono largamente utilizzati in diversi tipi di applicazioni. I principali pregi di un elettromagnete sono la forza del campo e la sua uniformità od omogeneità. Questa seconda caratteristica, la più importante per la maggior parte delle applicazioni, è ottenuta mediante forme estremamente specifiche di avvolgimento delle spire o, nel caso degli elettromagneti ciclotronici, con l'inserimento di 'spessori' di ferro tra le bobine e la camera a vuoto. Le dimensioni e il peso e, di conseguenza, il costo di un elettromagnete dipendono sia dal volume richiesto nell'intervallo tra le espansioni polari, detto 'traferro', sia dalla forza del campo. Con l'aumento del volume sperimentale richiesto devono crescere anche la sezione trasversale del ferro, per prevenirne la saturazione, e le amperspire fornite dalle bobine.
L'elettromagnete più grande e più potente prodotto fra le due guerre fu costruito presso il Laboratoire du Grand Electroaimant a Bellevue, con il sostegno dell'Académie des Sciences di Parigi. L'apparecchio pesava 110 t e misurava 2,5 per 5,5 per 2,5 m, con espansioni polari di 76 cm di diametro fabbricate con una lega ferro-cobalto e non in ferro puro. La forza del campo riveste a sua volta importanza per alcune applicazioni e il magnete di Bellevue era in grado di generare fino a 100 kilogauss, con un traferro di pochissimi millimetri.
Questi magneti producevano campi stazionari ma era possibile produrne di molto più intensi servendosi di congegni impulsati, una tecnica sperimentata per la prima volta dal fisico russo Pëtr Leonidovič Kapitsa (1894-1984) negli anni Trenta, quando lavorava con Rutherford al Cavendish Laboratory. L'obiettivo di Kapitsa era la generazione di un campo magnetico ad alta intensità per lo studio del reticolo elettronico nei cristalli metallici. Dopo il fallimento dei primi tentativi, effettuati scaricando una batteria di grosse dimensioni attraverso una bobina di rame, Kapitsa ebbe l'idea di cortocircuitare un generatore di corrente alternata attraverso la bobina per la durata di un singolo semiciclo (0,01 s). Cockcroft lo aiutò a progettare i dettagli del dispositivo e a calcolare le enormi forze in azione nella bobina durante il passaggio di una corrente transiente a 10.000 A. La gigantesca installazione, formata da tonnellate di apparecchiature di controllo e da un generatore di grandissime dimensioni, funzionò come previsto, generando un campo di 300 kilogauss su un volume di 3 cm3, senza bruciare la bobina.
Basse temperature
La liquefazione dell'elio, ottenuta per la prima volta nel 1908 da Heike Kamerlingh Onnes (1853-1926) a Leida, aprì la strada alla scoperta del primo superconduttore, il mercurio, avvenuta nella medesima città tre anni più tardi. La fisica delle basse temperature fiorì nel periodo tra le due guerre, portando alla creazione di centri di ricerca criogenica dotati di apparecchi per la liquefazione dell'azoto, dell'idrogeno e dell'elio e di speciali contenitori (vasi Dewar) a Toronto, Berlino, Breslavia, Kharkov, Oxford e Berkeley. Questi nuovi laboratori permisero la scoperta di molti altri superconduttori e lo studio di fenomeni quali le transizioni di fase, i calori specifici, i modelli a doppio fluido, l'effetto Meissner e le proprietà della materia alle temperature prossime allo zero assoluto. Le leghe e i composti scoperti all'inizio degli anni Trenta, e in particolare una lega di piombo e bismuto, possedevano proprietà di superconduzione molto promettenti, ma tutti i tentativi di utilizzarli per la produzione di bobine ad alta intensità di campo fallirono, per cause a quel tempo incomprensibili.
La Seconda guerra mondiale interruppe la ricerca sulle basse temperature negli Stati Uniti e in Europa occidentale; tuttavia, tra le ricadute tecnologiche della ricerca bellica figuravano alcuni dispositivi destinati a rivelarsi molto utili in questo campo, come la messa a punto di sofisticate tecniche elettroniche e l'apparecchio di Collins per la liquefazione dell'elio, grazie al quale il numero di laboratori in grado di intraprendere delle ricerche sull'elio liquido aumentò in modo considerevole. Nel dopoguerra i principî della superconduttività ad alta intensità di campo e ad alta densità di corrente furono compresi dapprima empiricamente e poi con la teoria microscopica BCS (Bardeen-Cooper-Schrieffer), consentendo finalmente la realizzazione di magneti superconduttori e aprendo al contempo la strada ad affascinanti applicazioni tecnologiche.
Apparecchi elettroforetici
Il fenomeno dell'elettroforesi, ossia la migrazione di particelle cariche all'interno di una soluzione o sospensione in presenza di un campo elettrico, fu osservato per la prima volta nel 1807 dal fisico F.F. Reuci. Intorno al 1930 il chimico svedese Arne Tiselius (1902-1971) la utilizzò ampiamente come tecnica analitica e sperimentale. In una cella elettroforetica, composta essenzialmente di un tubo di vetro a U sospeso tra due elettrodi, Tiselius analizzò il moto elettroforetico servendosi di una tecnica che divenne in seguito nota con il nome di 'metodo del fronte mobile', poiché si basa sulla creazione di un fronte in movimento tra la soluzione di particelle da esaminare e un campione di solvente puro. La migrazione delle particelle nel campo elettrico determina quindi uno spostamento della barriera posta tra la soluzione e il solvente.
Se la soluzione contiene vari tipi di particelle, con mobilità elettroforetica dissimile, si possono individuare differenti tipi di fronti, di forma e grandezza. Grazie a questa apparecchiatura Tiselius fu in grado di dimostrare la composizione eterogenea del sangue umano, separando le molecole delle globuline in diversi componenti (α, β e γ globuline). Dopo la Seconda guerra mondiale il metodo fu perfezionato con l'introduzione di gel colloidali come medium di supporto e di tecniche di focalizzazione isoelettrica (in cui il medium tollera un gradiente pH che include il pH isoelettrico delle specie in esame); in seguito si diffuse anche l'impiego di laser ottici.
Dispositivi per le alte pressioni
Percy W. Bridgman, docente di fisica sperimentale di Harvard dotato di una visione piuttosto eterodossa della natura della materia, fu uno dei pionieri della tecnologia delle alte pressioni. Dopo aver iniziato le sue ricerche servendosi di una normale pressa a vite azionata da una chiave, la sostituì ben presto con un ariete idraulico in grado di produrre pressioni dell'ordine di 20.000 atmosfere. Una componente fondamentale di questo apparato era una guarnizione stagna di sua invenzione, chiamata packing, in cui l'aumento della pressione incrementava a sua volta la capacità di tenuta. Lo sviluppo, negli anni Trenta, dei carburi di tungsteno al cobalto consentì di raggiungere pressioni ancora più elevate. Per fabbricare i suoi recipienti ad alta pressione, con un diametro di quattro-cinque pollici (11-13 cm ca.), Bridgman si serviva di acciaio al cromo-vanadio prodotto in una fornace elettrica. Questo tipo di acciaio, non particolarmente duro, conferiva una relativa morbidezza all'interno dei recipienti. Come notò Edwin C. Kemble in un saggio biografico su Bridgman, ciò presenta il vantaggio che il limite elastico è raggiunto prima dal materiale duttile lungo la parete interna, che può sopportare una notevole tensione senza arrivare alla rottura. Di conseguenza, l'espansione della parte interna trasmette il carico alla parte esterna, più resistente.
Spettroscopia a raggi infrarossi
Nel primo ventennio del Novecento si assiste alla proliferazione di diversi centri di ricerca che applicavano la spettroscopia molecolare allo studio dei livelli di energia vibrazionale delle molecole più leggere. Combinata alla spettroscopia Raman, questa tecnica consentiva di predire e interpretare l'energetica di molecole semplici nei termini del loro comportamento rotazionale e vibrazionale. Queste ricerche avevano tuttavia scarsa rilevanza per lo studio degli spettri vibrazionali delle molecole più pesanti, di grande interesse per la chimica organica.
Negli anni Venti il campo della spettroscopia nell'infrarosso era dominato da due scuole. Il Department of Physics del National Bureau of Standards (NBS) di Washington, guidato da William W. Coblentz, utilizzava la radiazione infrarossa per l'identificazione degli idrocarburi nell'ambito di uno studio sistematico della composizione chimica del petrolio. Contemporaneamente, un gruppo di ricercatori della Johns Hopkins University di Baltimora tentava di arrivare a una comprensione più approfondita degli spettri infrarossi nei termini delle strutture molecolari.
Nessuno dei due metodi consentiva però di spingere le indagini oltre la determinazione del peso molecolare del benzene. Negli anni Trenta la tecnica della spettroscopia nell'infrarosso fu adottata dalle compagnie petrolifere. Un gruppo di ricerca collettivo dell'American Petroleum Institute (API) organizzò un laboratorio, sempre presso l'NBS, per uno studio approfondito della composizione chimica del petrolio. Nel 1937 fu emesso un rapporto congiunto API-NBS sulle proprietà infrarosse di un gruppo particolare di idrocarburi, seguito da un altro l'anno successivo. Questi rapporti crearono a loro volta le basi delle ricerche sulle reazioni organiche complesse, svolte successivamente dalle industrie chimiche e dalle compagnie petrolifere.
La spettroscopia nell'infrarosso presentava importanti vantaggi rispetto ad altri metodi tradizionali di analisi, come quelli basati sui punti di fusione e di ebollizione o gli indici di rifrazione, in quanto gli spettri infrarossi offrivano una molteplicità di indicatori in grado di gettare luce sulla composizione e sulla struttura dei composti molecolari. David Kendall ha osservato che la tradizione empirica del metodo spettroscopico nell'infrarosso, scaturita in gran parte dalle ricerche di Coblentz presso l'NBS, comportava il confronto tra gli spettri del massimo numero ottenibile di molecole di diverso tipo, aventi un gruppo atomico in comune, ivi comprese le molecole tra loro più dissimili.
Per quanto riguarda la strumentazione utilizzata, uno dei componenti principali è rappresentato dal bolometro, vale a dire un rivelatore di calore formato da un termometro a resistenza (strisce di platino), il quale è collegato sia a un ponte di Wheatstone sia a un galvanometro. La radiazione viene trasmessa a uno spettrografo, osservato attraverso una fessura per mezzo di una macchina fotografica, in una configurazione che consente di determinare le lunghezze d'onda nella gamma degli infrarossi (tra 0,75 e 1,0 μ).