Metrologia
La metrologia è la scienza della misura, ovvero la disciplina che si occupa di definire le procedure per eseguire corrette misurazioni. L'esigenza di stabilire metodi uniformi e riproducibili per misurare merci e prodotti ha indotto le autorità a definire campioni di unità di misura sin dall'antichità. Sovente basati su manufatti, a misura delle parti del corpo umano (pollice, piede) e a diffusione prevalentemente locale, essi erano del tutto inadeguati allo sviluppo non solo della scienza e della tecnologia ma anche dell'industria moderna e del commercio internazionale.
La fondazione della metrologia come scienza è opera dello spirito illuminista e il suo scopo sin dagli albori è quello di armonizzare i campioni diffusi localmente in un unico sistema. Inizialmente furono adottate due sole unità di misura, per la lunghezza e per la massa. Nel 1795 l'Assemblea nazionale francese deliberò la definizione del metro quale quarantamilionesima parte di un meridiano terrestre e quella del kilogrammo come la massa di un appropriato volume di acqua purificata. Nel 1799 il sistema metrico progredì con l'acquisizione dei campioni di unità di misura, rispettivamente una barra e un blocco in platino. Già alla nascita apparve dunque chiaro che la realizzazione del campione era ben altra cosa dalla definizione dell'unità di misura.
Nel corso dell'Ottocento il sistema metrico si diffuse dapprima in Europa, poi in Sud America: molti paesi ormai lo utilizzavano ma ciascuno disponeva di propri campioni, tra loro difformi. Al fine di uniformare i vari campioni nazionali, nel 1875 la Convenzione Internazionale del Metro fondò il Bureau International des Poids et Mesures (BIPM), cui fu affidato il compito di conservare i prototipi primari del metro e del kilogrammo, di farne delle copie e di confrontare i campioni nazionali con i prototipi primari. Fu istituito inoltre il Comitato Internazionale dei Pesi e delle Misure (CIPM) e la Conferenza Generale dei Pesi e delle Misure (CGPM), con il compito di deliberare in merito alle variazioni del sistema di unità fondamentali. Tali istituti esistono tuttora e continuano la loro missione.
La Convenzione Internazionale del Metro, che conta oggi 51 Stati membri, adottò ufficialmente il sistema metrico, il quale, con l'inclusione del secondo astronomico quale unità di tempo, fu denominato Sistema MKS (dalle iniziali di metro, kilogrammo e secondo). Nel corso del Novecento, sono state incluse nuove unità di misura e continuamente revisionate le definizioni di quelle esistenti. Nel 1948, con l'introduzione dell'ampere quale unità elettrica fondamentale, s'instaurò il Sistema MKSA, poi sostituito nel 1960 dal Sistema internazionale (SI) oggi vigente. In esso sono incluse sette unità di misura fondamentali, per altrettante grandezze fisiche: il metro (m) per la lunghezza, il kilogrammo (kg) per la massa, il secondo (s) per la durata temporale, l'ampere (A) per la corrente elettrica, il kelvin (K) per la temperatura termodinamica, la mole (mol) per la quantità di sostanza e la candela (cd) per l'intensità luminosa.
Nel secolo scorso vi è stata un'evoluzione dei principî alla base della scelta delle unità fondamentali: da unità basate su manufatti a unità radicate nel mondo naturale e nelle leggi fisiche. Già nel 1870 James C. Maxwell sostenne la necessità di definire le unità di misura legandole a quantità fisiche di atomi e molecole, piuttosto che al moto o alle dimensioni della Terra. Max Planck, spingendosi oltre, ritenne che le unità di misura dovessero essere definite non in base alle proprietà di specifici atomi ma piuttosto alle costanti fondamentali, quali la velocità della luce nel vuoto c, la costante di gravitazione universale G, la costante di Planck h, la carica elementare e, e così via. La difficoltà principale di un sistema di unità di misura così basato era la sua scarsa praticità: tali unità fondamentali risultavano estremamente vantaggiose per il mondo microscopico, ma erano poco adattabili alle esigenze della vita quotidiana nel mondo macroscopico.
Attualmente, il punto di vista di Maxwell è dato per scontato e, grazie all'aumentata capacità di mettere in relazione la scala del mondo microscopico con quella umana, la metrologia procede nella direzione indicata da Planck. La metrologia è però scienza prudente: le modifiche alle unità fondamentali procedono a un ritmo incessante ma lento e sono adottate solo quando vi è consenso sulla maturità delle conoscenze scientifiche e tecnologiche implicate e previa valutazione di costi e benefici, per la scienza e per la società.
1. Tracciabilità. 2. Il Sistema internazionale di unità di misura. □ Bibliografia.
La metrologia legale si occupa della catena di tracciabilità per ciò che riguarda i consumatori e i produttori, stabilendo criteri per il corretto uso degli strumenti e le procedure di verifica. Ogni misura presuppone il confronto della grandezza da misurare con un campione, mediante l'uso di uno strumento. Ciò è evidente quando per esempio si pesa un oggetto con una bilancia a piatti: la bilancia rappresenta lo strumento e il contrappeso il campione. Più spesso, nell'uso quotidiano, il campione è assente dal processo di misura, in quanto lo strumento viene calibrato con una grandezza campione già da parte del costruttore. L'accuratezza delle misure dipende allora dalle caratteristiche di stabilità dello strumento, ovvero dalla sua capacità di riprodurre risultati uguali misurando la medesima grandezza, nel corso del tempo e indipendentemente dalle condizioni ambientali. Per garantire i livelli di accuratezza originari è spesso richiesta la ripetizione periodica del processo di calibrazione. Delle procedure di calibrazione degli strumenti si occupa la metrologia legale, che ha un ruolo essenziale nel garantire l'ordinato svolgersi dei commerci e della produzione industriale.
La calibrazione deve soddisfare un requisito di importanza capitale, la cosiddetta tracciabilità. I metrologi garantiscono l'esistenza di una catena di campioni, che a partire da quelli di unità di misura internazionali raggiunga l'utente finale. La calibrazione di uno strumento deve essere adeguatamente documentata per rendere possibile risalire a ritroso la catena dei campioni di unità di misura fino al livello più alto. Tale processo si definisce catena di tracciabilità. Evidentemente, nella disseminazione dei campioni, l'accuratezza degrada a ogni anello della catena, in maniera inevitabile. Ciò non necessariamente rappresenta un problema, perché l'utente finale raramente è interessato a disporre dell'accuratezza originaria dei campioni nazionali e internazionali. La tracciabilità è però un concetto chiave della metrologia in generale: in ultima analisi, il requisito di riproducibilità da parte di altri sperimentatori, su cui si fonda la scienza moderna, richiede che gli esiti delle misure siano riconducibili ai campioni di unità di misura internazionali.
Le sette unità del SI sono dimensionalmente indipendenti. Ulteriori unità di misura si dicono derivate, ovvero costruite a partire dalle unità di base. Di alcune si riconosce immediatamente la composizione delle unità fondamentali, come nel caso delle unità di velocità, m/s, e di accelerazione, m/s2. Laddove la composizione si fa più complessa, si preferisce definire unità derivate dotate di nome proprio, per esempio il newton quale unità di forza (1 newton=1 kg∙m/s2), il pascal quale unità di pressione (1 pascal=1 newton/m2=1 kg/m∙s2), il watt quale unità di potenza (1 watt=1 kg∙m2/s3). Unità fondamentali e derivate formano un sistema coerente, nel senso che le varie unità si ottengono le une dalle altre per moltiplicazioni e divisioni senza fattori numerici diversi da 1.
Il metro. Il metro è la distanza percorsa dalla luce nel vuoto in un intervallo di tempo pari a 1/(299.792.458) secondi.
Adottata nel 1983 dalla XVII Conferenza Generale dei Pesi e delle Misure (CGPM), tale definizione è la terza in ordine di tempo. La prima, risalente alla I Conferenza CGPM del 1889, era legata al diametro terrestre, e fu sostituita dalla XI Conferenza CPGM nel 1960 con una seconda definizione basata sulla lunghezza d'onda di una transizione dell'atomo di kripton 86. La nuova definizione equivale a fissare il valore della velocità della luce nel vuoto, c=299.792.458 m/s, una volta per tutte con incertezza nulla. Con tale definizione una misura della velocità della luce diviene impossibile, o meglio si trasforma in una realizzazione del metro campione. L'ipotesi sottintesa è che la quantità c "sia una grandezza immutabile, fissa nella natura" (secondo il motto illuminista), costante nel tempo e uniforme nello spazio. In che misura le costanti universali della natura siano davvero immutabili è tuttora oggetto di investigazioni sperimentali: per il momento nessuna variazione di costanti universali è stata accertata e gli esperimenti effettuati stabiliscono limiti superiori al tasso di eventuali variazioni non ancora rilevate.
Vale la pena notare che la ridefinizione del metro è stata resa possibile dalla maturità delle conoscenze scientifiche e tecnologiche relative alla propagazione delle onde elettromagnetiche. Si conviene per esempio che la velocità della luce c non dipenda dalla frequenza della radiazione e inoltre che la realizzazione del metro così definito sia più precisa che in passato. Vedremo come anche le altre unità di misura potranno essere oggetto di nuove definizioni quando il livello di comprensione dei fenomeni fisici implicati sarà ritenuto adeguato.
Il kilogrammo. Il kilogrammo è l'unità di massa, pari alla massa del prototipo internazionale.
Adottata nel 1889 dalla I Conferenza CGPM, la definizione del kilogrammo è rimasta invariata per oltre un secolo, a parte una modifica meramente lessicale apportata nel 1901 dalla III Conferenza CGPM. Attualmente il prototipo internazionale è un cilindro di platino (90% in massa) e iridio (10%) conservato a Sèvres in Francia, insieme a sei copie ufficiali.
Tra tutte le unità di misura, il kilogrammo è quella su cui si concentrano gli sforzi per un cambiamento a breve termine. La definizione attuale è insoddisfacente per molteplici ragioni. Innanzitutto non è legata a una quantità invariante della natura, ma si basa su un manufatto che può essere modificato, danneggiato o distrutto. Pur se conservato in ambiente protetto, si stima che il blocco di platino-iridio muti la propria massa di qualche parte su 108 nel corso di un secolo. Inoltre l'accessibilità è limitata dall'esigenza di preservarne le caratteristiche e dalla mancanza di ubiquità.
Attualmente, le proposte più promettenti per sostituire il prototipo internazionale sono due. La prima si basa sull'equivalenza tra potenza elettrica e meccanica confrontate attraverso una spira in movimento, la cosiddetta bilancia di Watt. Finora l'utilizzo di tale bilancia ha permesso di misurare la costante di Planck h, con un'incertezza relativa dell'ordine di 10−7. Utilizzando la bilancia di Watt per la ridefinizione del kilogrammo, si otterrebbe di fissare la costante h a un valore convenzionale e si trasferirebbe l'incertezza relativa sulla realizzazione del campione di massa. La seconda proposta di ridefinizione invece lega l'unità di massa alla misura del passo reticolare, della densità di massa e della composizione isotopica di un singolo cristallo di silicio, al fine di contare in modo preciso il numero di atomi contenuti nel cristallo. Attualmente in tal modo si ottiene il valore della costante di Avogadro NA, laddove la ridefinizione ne fisserebbe il valore.
Un primo passo potrebbe consistere nella definizione di un valore convenzionale delle costanti h e NA. Se per esempio si fissasse h al valore dell'ultimo aggiustamento delle costanti fondamentali (h=6,6261 0693(11) 10−34 J s), la massa del prototipo internazionale avrebbe un valore unitario affetto da un'incertezza relativa dell'ordine di 10−7. Ovviamente tale valore potrebbe in seguito mutare per effetto di nuove misure. Raggiunta la stabilità opportuna, si procederebbe alla ridefinizione del kilogrammo e il valore di h sarebbe definitivamente fissato. Come vedremo in seguito, questa è la procedura ormai avviata per la ridefinizione delle unità elettriche.
Notiamo infine che la definizione del kilogrammo avrà ricadute anche su altre unità fondamentali, le cui definizioni sono da esso dipendenti, come l'ampere, la mole e la candela.
Il secondo. Il secondo è la durata di 9.192.631.770 periodi di oscillazione della radiazione corrispondente alla transizione tra i due livelli iperfini dello stato fondamentale dell'atomo di cesio 133.
Adottata nel 1967 dalla Conferenza CGPM, questa definizione ha rimpiazzato quella del secondo astronomico, non ha subito mutamenti e non ne sono previsti a breve termine in futuro. Nel 1997 il CIPM ha precisato che: "La definizione si riferisce ad atomi di cesio a riposo e alla temperatura di 0 K", intendendo che, a temperatura non nulla, occorre correggere per gli spostamenti dovuti alla radiazione di corpo nero emanata dall'ambiente circostante.
Il secondo rappresenta oggi l'unità fondamentale per eccellenza, essendo il tempo la grandezza che si misura in assoluto con la migliore accuratezza. Per il secondo la definizione è risultata particolarmente felice, come testimonia il fatto che la realizzazione avviene secondo la definizione. I campioni primari di tempo sono infatti orologi atomici, le cui oscillazioni periodiche vengono stabilizzate per confronto con la transizione iperfine di atomi di cesio 133 allo stato di vapore. Negli ultimi anni, per aumentare la durata di tempo con cui eseguire il confronto e per migliorare l'accuratezza, si sono costruiti orologi a fontana, in cui atomi raffreddati a pochi microkelvin vengono lanciati verso l'alto e ricadono dopo qualche frazione di secondo di volo balistico. Confrontando differenti esemplari di campioni primari, si deduce che l'accuratezza relativa con cui si realizza il secondo è di circa 5×10−16.
La precisione delle misure di tempo e frequenza è tale che è ormai pratica comune ricondurre le misure di qualsiasi grandezza fisica a misure di tempo, laddove possibile. Un esempio notevole è la determinazione delle masse atomiche relative di ioni atomici e molecolari, che si ottengono misurandone le frequenze di oscillazione in trappole armoniche.
L'ampere. Un ampere è la corrente elettrica costante che, se mantenuta in due conduttori paralleli di lunghezza infinita, di sezione trascurabile e posti a 1 m di distanza nel vuoto, produrrebbe tra questi conduttori una forza pari a 2×10−7 newton per metro di lunghezza.
Adottata dalla IX Conferenza CGPM nel 1948, questa definizione equivale a fissare la costante di permeabilità magnetica del vuoto μ0 al valore di 4π×10−7 H/m. Le unità elettriche (oltre all'ampere, vi sono le unità derivate: il volt e l'ohm) mostrano chiaramente quanto la realizzazione di un'unità possa differire dalla definizione e meritano una discussione più approfondita. Evidentemente in nessun laboratorio la definizione dell'ampere, implicando conduttori di sezione trascurabile, paralleli e di lunghezza infinita, viene realmente utilizzata per realizzare un campione. Da quasi 30 anni si preferisce ricorrere a campioni secondari basati su fenomeni quantistici: l'effetto Josephson e l'effetto Hall quantistico.
L'effetto Josephson prende il nome da Brian Josephson, che ne predisse l'esistenza nel 1962. In breve, quando una giunzione di separazione tra due materiali superconduttori viene irradiata da radiazione elettromagnetica di frequenza f, la curva caratteristica della corrente in funzione della tensione presenta degli scalini in corrente per valori di tensione che sono multipli interi della frequenza f divisa per una costante KJ. Tale costante, detta di Josephson, si esprime semplicemente in funzione della costante di Planck e della carica elementare KJ=2e/h. L'effetto Josephson permette dunque di misurare la costante KJ, oppure viceversa di realizzare un campione di voltaggio a partire da un campione di frequenza laddove il valore di KJ sia noto.
L'effetto Hall classico prevede che, in un conduttore immerso in un campo magnetico perpendicolare al verso della corrente elettrica, si crei una differenza di potenziale UH nella direzione ortogonale sia alla corrente sia al campo magnetico, proporzionale alla corrente I. In base all'effetto Hall quantistico, scoperto nel 1980 da Klaus von Klitzing, in determinate condizioni, la resistenza di Hall RH=UH/I assume dei valori quantizzati: RH=RK/i, dove i è un intero e RK è detta costante di von Klitzing. L'evidenza sperimentale mostra che il valore di tale costante non dipende dai dettagli del campione e vale RK=h/e2.
Il 1 gennaio 1990, al fine di migliorare l'uniformità delle misure elettriche disseminate nel mondo, il CIPM ha stabilito due nuove realizzazioni del volt V e dell'ohm Ω, basate sull'effetto Josephson e sull'effetto Hall quantistico e indicate con i simboli V90 e R90, che utilizzano valori convenzionali delle costanti KJ e RK. Tali valori, indicati con i simboli KJ−90 e RK−90, sono KJ−90=483.597,9 GHz/V e RK−90=25.812,807 Ω. In altre parole, una differenza di potenziale di {x}V90, ovvero di valore numerico x se espressa nell'unità pratica V90, equivale a quella ai capi di una giunzione Josephson irradiata da radiazione elettromagnetica a frequenza x/(483.597,9 GHz). Le misure elettriche eseguite rispetto ai campioni V90 e R90 si possono esprimere in V e Ω, moltiplicandole per coefficienti, il cui valore è noto con un'incertezza relativa rispettivamente di 8,5×10−8 e 3×10−9.
Le unità elettriche convenzionali V90 e R90 ovviamente si possono combinare per dar luogo ad altre unità convenzionali, quali l'ampere A90=V90/R90 o il watt W90=V90∙A90. L'utilità di queste unità convenzionali sta nel poter essere realizzate in modo uniforme e accurato. In prospettiva, la ridefinizione delle unità elettriche porterà a fissare il valore della carica elementare e. Come si vede, il punto di vista di Planck, secondo cui le unità di misura devono essere riferite alle costanti fondamentali, progredisce di pari passo con la capacità di legare tali costanti a grandezze fisiche non solo misurabili in modo accurato, ma anche facilmente trasferibili a scala macroscopica.
Il kelvin. Un kelvin è la frazione di 1/273,16 della temperatura termodinamica del punto triplo dell'acqua.
La definizione fu inizialmente adottata dalla X Conferenza CGPM nel 1954 e in seguito modificata nella sua forma attuale dalla XIII Conferenza CGPM nel 1968. Per indicare una differenza o un intervallo di temperatura, è consentito anche l'uso del grado Celsius (°C), la cui grandezza è pari a 1 kelvin.
Anche l'unità di temperatura termodinamica potrebbe essere sostituita fissando il valore di una costante universale, segnatamente la costante di Boltzmann k. Attualmente k è nota con un'incertezza relativa di 1,8×10−6, attraverso la misura della costante molare dei gas R e della costante di Avogadro, k=R/NA. Nel caso k fosse fissata a un valore esatto, l'incertezza, trasferita sulla temperatura del punto triplo dell'acqua, sarebbe pari a circa 0,5 mK. Tale incertezza appare confrontabile o inferiore alle tipiche incertezze sulla temperatura del punto triplo di altre sostanze.
La mole. La mole è la quantità di sostanza di un sistema, che contiene tante entità elementari quanti atomi vi sono in 0,012 kg di atomi di carbonio 12; il simbolo è mol. Quando viene usata la mole, le entità elementari devono essere specificate: esse possono essere atomi, molecole, ioni, elettroni, altre particelle o gruppi specifici di particelle.
Adottata dalla XIV Conferenza CGPM nel 1971, la mole risponde principalmente alle esigenze della chimica che in seguito alla scoperta dei rapporti stechiometrici introdusse unità, legate al peso atomico e al peso molecolare, che specificassero le quantità di sostanza, ovvero il numero di componenti elementari, fossero essi atomi o molecole. Dopo aver convenuto di assegnare il valore 12 alla massa atomica relativa dell'atomo del carbonio 12, tutte le masse atomiche e molecolari si potevano misurare in termini di unità di massa atomica relativa. La definizione di mole stabilisce il numero di componenti elementari contenuti in una mole, specificando la massa della mole di carbonio 12 esattamente pari a 0,012 kg.
Appare evidente che, in base a questa definizione, per qualsiasi sostanza X il numero di entità elementari contenute in una mole è il medesimo: si tratta del valore numerico {NA} della costante di Avogadro, NA={NA} mol−1. Tale costante viene determinata misurando la massa atomica del carbonio 12; d'altra parte, una ridefinizione di mole potrebbe fissare il valore di NA: la massa della mole di carbonio 12 così ridefinita non sarebbe più esattamente pari a 0,012 kg, ma sarebbe affetta dall'incertezza ora attribuita a NA.
La candela. La candela è l'intensità luminosa, in una data direzione, di una sorgente che emette radiazione monocromatica alla frequenza di 540×1012 Hz e che ha un'intensità radiante in quella direzione di 1/683 watt per steradiante.
Adottata nel 1979 dalla XVI Conferenza CGPM, questa definizione sostituisce la precedente del 1948, poi modificata nel 1967, basata sull'intensità luminosa di un radiatore di Planck, ovvero un corpo nero, alla temperatura di solidificazione del platino.
Benché la candela sia sostanzialmente riconducibile a un flusso di energia, la sua inclusione tra le unità fondamentali è giustificata da esigenze di tecnologie e ambiti specifici, come quelli dell'ottica, della radiometria e della fotometria.
Mohr, Taylor 2005: Mohr, Peter J. - Taylor, Barry N., CODATA recommended values of the fundamental physical constants: 2002, "Review of modern physics", 77, 2005, pp. 1-107.
Taylor 2001: Taylor, Barry N., The International System of Units (SI), Gaithersburg (MD), US Department of Commerce, Technology Administration, National Institute of Standards and Technology, 2001.