Con il termine f. gli antichi designavano la riflessione filosofica sui fenomeni della natura, e quindi il suo ambito era strettamente connesso al concetto di natura cui di volta in volta ci si riferiva. Con l’affermarsi in età moderna della tendenza a una considerazione sperimentale dei fenomeni naturali, il termine è passato a indicare la scienza volta a fornire una descrizione razionale di quelli, tra i fenomeni naturali stessi (appunto detti fisici), suscettibili di sperimentazione e che riguardano grandezze misurabili; di fatto, peraltro, un gran numero di fenomeni naturali, che pure presentano tali requisiti, non sono abitualmente considerati come oggetto della fisica: è il caso, per es., dei fenomeni biologici, chimici, geologici.
La tradizionale suddivisione della f. in meccanica, idrodinamica, acustica, termodinamica, elettromagnetismo, ottica, struttura della materia, a cui si sono aggiunte nel 20° sec. nucleare e subnucleare, ha carattere piuttosto convenzionale e fini prevalentemente didattici. A base della f. è generalmente il metodo sperimentale, associato al linguaggio, alla elaborazione e, assai spesso, alla previsione matematica. A base del metodo sperimentale sta la possibilità di riprodurre fenomeni, cioè di compiere esperienze. Le esperienze consentono di effettuare quelle indagini dalle quali hanno origine o conferma o controllo le leggi fisiche traducenti relazioni d’interdipendenza qualitativa e quantitativa tra fenomeni e tra grandezze. Le grandezze fisiche sono definite operativamente, cioè mediante le operazioni di misura. Le teorie fisiche possono nascere dal coordinamento delle leggi fisiche o anche, per deduzione matematica, da postulati e ipotesi a priori. In questo ultimo caso i risultati dell’elaborazione matematica devono essere sottoposti al controllo sperimentale, affinché la teoria acquisti un effettivo interesse fisico. Scopo d’ogni teoria fisica è di dare una rappresentazione coerente e matematicamente formalizzata di determinati fatti. La storia della f. è la storia dell’acquisizione di nuovi dati sperimentali e del succedersi di teorie diverse e spesso contrapposte.
Nell’ambito della storia del pensiero occidentale, una delle prime organiche sistemazioni teoriche dei principi della f. è quella data da Aristotele. Questi, nel dare una classificazione del sapere filosofico (nell’ambito delle scienze teoriche) distingueva la f. o filosofia seconda – come teoria del movimento – dalla matematica e dalla filosofia prima o teologia: oggetto proprio della f. era quindi ogni forma di mutamento di cui quattro erano considerate le specie fondamentali: mutamento sostanziale, qualitativo, quantitativo, locale.
Tutti i movimenti rientrano nel movimento rettilineo (dall’alto in basso o dal basso in alto) o in quello circolare: quest’ultimo, che rappresenta il movimento perfetto perché senza principio né fine, è proprio dei corpi celesti composti di sostanza incorruttibile (il quinto elemento), mentre i moti rettilinei sono propri dei quattro elementi (fuoco, aria, terra, acqua: i primi due dotati di moto verso l’alto, gli ultimi due verso il basso). La dottrina del movimento è legata a quella del luogo naturale: ogni elemento ha un suo luogo assoluto al quale naturalmente tende e nel quale trova fine il suo moto; così si delinea la visione del mondo fisico con al centro la terra, poi l’acqua, l’aria, il fuoco, al di sopra del quale, con il cielo della Luna, inizia l’ambito dei moti circolari ed eterni dei corpi incorruttibili. Sicché il moto dei corpi elementari tende a un fine e al riposo (è sempre violento in quanto esso deriva dall’essere i corpi fuori del loro luogo naturale e quindi portati a ritornare a esso); solo il moto dei cieli è naturale ed eterno. Sulla dottrina del movimento veniva così a costituirsi una f. essenzialmente qualitativa, che si articolava nella radicale distinzione tra f. terrestre e f. celeste: e attraverso la teoria del necessario rapporto motore-mosso (per cui ogni cosa mossa è mossa da un motore da essa distinto) si costituiva una struttura gerarchica di cause in cui ogni moto nel mondo sublunare si subordinava al moto dei cieli cui erano preposte altrettante intelligenze, fino al primo motore causa del moto della prima sfera cui era connesso (si aggiunge che ogni rapporto ‘causale’ nella f. di Aristotele è concepito come nesso sostanziale). In questa f. il mondo è unico e finito: unico in quanto ogni elemento deve avere il suo luogo ‘naturale’, finito perché compiuto e perché non c’è processo all’infinito nella catena verticale dei motori e dei mossi.
La cultura greca conobbe altre concezioni del mondo fisico: quella democriteo-epicurea, che proponeva una concezione atomistica della materia e avviava una f. di carattere quantitativo, almeno nel senso di considerare le qualità come effetti – in rapporto agli organi di senso – di caratteristiche quantitative dei corpuscoli o atomi costituenti i corpi, e introduceva il concetto di vuoto, ponendo i fondamenti di una f. meccanicistica; quella platonico-stoica, essenzialmente animistica con forte intonazione religiosa; ma fu la f. aristotelica a prevalere e soprattutto a esercitare la più larga influenza.
La cultura medievale per molti secoli non ebbe una vera f., come organico sistema della natura, la sua concezione della natura restando legata piuttosto a interpretazioni simbolico-allegoriche dei fenomeni naturali, raramente e disorganicamente influenzata da motivi della primitiva cosmologia biblica o patristica, o neoplatonica. Di una f. medievale si hanno prime formulazioni con l’apporto delle versioni di opere scientifiche greche e arabe tra il 12° e il 13° sec.; dalla metà del 13° sec. fu soprattutto la f. aristotelica a essere accolta nelle sue linee fondamentali.
I progressi della tecnica, le scoperte geografiche, astronomiche, anatomiche ecc., l’investigazione attenta, anche se non ancora metodica, dei fatti che la natura e le attività pratiche ponevano sotto gli occhi dell’osservatore furono non ultimo motivo al destarsi di un generale disagio nei riguardi della vecchia f., di cui si avvertiva l’incompletezza, e per tanti aspetti la contraddittorietà o l’arbitrio. Sicché, mentre il generale quadro della filosofia della natura restava, nel Cinquecento e per più aspetti anche nell’avanzato Seicento, quello trasmesso dalla cultura aristotelico-scolastica, si venivano via via riesaminando aspetti particolari di quella filosofia, riscontrandoli soprattutto con gli elementi che emergevano dall’indagine diretta della natura; e fu soprattutto su questo piano dell’osservazione della natura contrapposta alla ripetizione pedissequa di quanto si leggeva sui testi scolastici che si accese la polemica contro la f. tradizionale e si venne lentamente approntando il materiale per una nuova concezione della natura. Sul piano teorico, d’altro lato, la nuova filosofia della natura del Rinascimento (in cui rifluivano suggestioni pitagoriche, neoplatoniche e stoiche) proponeva schemi del mondo alternativi a quello aristotelico; per altro aspetto le discussioni sulla logica avviavano a una nuova problematica del metodo scientifico. Sotto la spinta di elementi diversi (acquisizioni empiriche, nuove tecniche, sistemazioni teoriche) la f. aristotelica lentamente si corrose, anche se rimase nelle scuole per lungo tempo (ancora nel Seicento): progressivamente, alla concezione qualitativa e sostanzialistica dell’aristotelismo si andò sostituendo una concezione quantitativa e descrittiva dei fenomeni fisici e la f. si organizzò come sistemazione di dati sperimentalmente conosciuti e connessi da legami validi nel piano dei fenomeni senza riferimento a legami sostanzialistici; a questa considerazione si sovrappose, ora in connessione ora in alternativa, una concezione più schiettamente matematica che venne a costituire un reticolato mentale di connessioni tra fenomeni suscettibili di essere trascritti in formule matematiche. Sperimentalismo, meccanicismo, matematizzazione del dato furono le vie, tra loro connesse, con le quali la f. aristotelica fu superata e sostituita da una nuova concezione della f. e da una nuova visione del cosmo. Il riconoscere, per dirla con le parole stesse di Galilei, «sola maestra la natura», l’affermare che la conoscenza della realtà non può derivare che dalle «sensate esperienze» e dalle «dimostrazioni necessarie» (cioè matematiche) furono infatti direttive che si aprirono su una concezione del tutto nuova della scienza, e in particolare della fisica.
All’opera di Galilei fece seguito quella di I. Newton, cui è dovuta la precisa formulazione dei tre principi che reggono la ‘meccanica classica’ (➔ meccanica) e la costruzione di una visione unitaria della natura, nella quale tutti i fenomeni sono visti in termini di corpi materiali interagenti meccanicamente (meccanicismo). Conviene qui ricordare come a questo fiorire della f. si colleghi strettamente, d’altra parte, lo sviluppo di nuovi capitoli della matematica, come l’analisi infinitesimale che ebbe nello stesso Newton uno dei maggiori artefici. In realtà, l’esigenza di rappresentare, in termini matematici adeguati, determinati fatti fisici dette spesso allora, come dà oggi, spunti e impulso all’invenzione matematica, aprendo così la via alla costruzione di quella che è stata poi chiamata f. matematica.
Mentre fervevano gli studi sulla meccanica, verso la fine del Settecento ebbe inizio lo studio sistematico dei fenomeni elettrici e magnetici (➔ elettromagnetismo; magnetismo). L’elettricità e il magnetismo, che devono il loro sviluppo prevalentemente all’opera di C.-A. de Coulomb, di H.C. Örsted, di A.-M. Ampère e di M. Faraday, trovarono una sistemazione unitaria, nel 1870, nelle equazioni del campo elettromagnetico, dovute a J.C. Maxwell, equazioni che, stabilite sulla base delle leggi sperimentali dell’elettricità e del magnetismo, dei concetti già introdotti da Faraday circa il meccanismo di propagazione delle azioni elettriche e magnetiche e di considerazioni matematiche, ebbero brillante conferma sperimentale, 17 anni dopo, quando H.R. Hertz scoprì le onde elettromagnetiche (previste dalla teoria di Maxwell), segnando la vittoria della concezione ondulatoria su quella corpuscolare relativamente alla struttura della luce, della quale appariva ormai chiara la natura elettromagnetica. L’imponente complesso di concetti, di leggi, di fatti riconosciuti, analizzati e sistemati nel lasso di tempo che va dall’epoca di Newton alla fine del 19° sec., costituisce quella che, oggi, comunemente si chiama la f. classica, alla base della quale, in ultima analisi, sono i principi di Newton della meccanica da un lato, le equazioni di Maxwell dell’elettromagnetismo dall’altro.
Ma tra il finire del 19° sec. e l’inizio del 20° i principi stessi della f. classica furono rimessi in discussione dalla revisione critica dei principi newtoniani, effettuata soprattutto a opera di E. Mach e di J.-H. Poincaré, dall’interpretazione della legge spettrale del corpo nero data da M. Planck (1900), dell’effetto fotoelettrico data da A. Einstein (1905) e dello spettro dell’atomo di idrogeno data da N. Bohr (1913). L’inadeguatezza della f. classica a fornire accettabili interpretazioni spinse alla formulazione di nuove ipotesi e di nuovi principi e alla conseguente costruzione di nuove teorie, dal complesso delle quali nasce quella che, in contrapposto alla f. classica, si chiama f. moderna. Carattere fondamentale e preminente assumono, in questo nuovo corso, da un lato la teoria della relatività (A. Einstein, 1905), dall’altro la meccanica quantistica (L.-V. de Broglie, 1923; M. Born, E.W. Heisenberg e E.P. Jordan, 1925; E. Schrödinger, 1926; P.A.M. Dirac, 1928), e successivamente l’elettrodinamica quantistica.
La teoria della relatività poggia su una revisione critica dei concetti di spazio e di tempo, e attraverso l’impiego di nuovi appropriati algoritmi matematici, come il calcolo differenziale assoluto, giunge alla formulazione di leggi, rispetto alle quali quelle proprie della meccanica classica conservano una loro validità come leggi di prima, anche se assai spesso largamente sufficiente, approssimazione, in tutti i casi in cui siano in gioco velocità non comparabili con la velocità della luce. Ne discende, tra l’altro, una profonda revisione dei principi di conservazione della massa e dell’energia, ai quali si sostituisce il principio di conservazione della massa-energia, fatto che ha trovato nella f. nucleare e delle particelle elementari esaurienti conferme sperimentali.
La meccanica quantistica, dal canto suo, ha portato a una rielaborazione della f. classica tendente a creare una teoria atta a dar conto anche dei fenomeni relativi ai sistemi atomici e alle particelle elementari di cui si sa essere costituita la materia (➔ atomo). Partendo da una profonda revisione critica del concetto di ‘osservabile’ e di misura, la meccanica quantistica giunge a sostituire, relativamente all’evolversi dei fenomeni, schemi statistico-probabilistici a schemi classici di tipo deterministico.
A partire dalla seconda metà del 20° sec. le linee di sviluppo della f. si sono accentrate intorno a due principali direttive. Una è la generale tendenza alla costruzione di teorie unificate, atte cioè a dare giustificazione unitaria di fenomeni precedentemente ricondotti a principi tra loro diversi. La seconda direttiva, in un certo senso complementare della prima, è quella di orientare l’indagine sperimentale verso un maggiore approfondimento delle conoscenze intorno alla struttura della materia (e quindi alla f. dei solidi, dei liquidi, dei gas e dei plasmi) e ai fenomeni che si determinano in condizioni particolari (quali, per es., superconduttività, superfluidità ecc.): un compito di grande impegno per le imponenti risorse finanziarie che esso è destinato ad assorbire e di grande interesse tecnologico.
Nel corso del 20° sec. è stata raggiunta una formulazione ritenuta soddisfacente delle leggi fisiche su scale che vanno da quella delle particelle subnucleari (10−18 m) fino a quella delle galassie (1023 m). Sulle piccole scale (fino a 10−18 m) i fenomeni osservati si possono ben descrivere nell’ambito del quadro generale della meccanica quantistica relativistica. Le particelle elementari (➔) sono soggette a interazioni elettromagnetiche (nucleari) forti, deboli e gravitazionali. Sembra assodato che la materia nucleare sia composta da quark e gluoni, soggetti a interazioni forti, secondo le leggi della cromodinamica quantistica (➔ forti, interazioni). Queste particelle, che non possono esistere isolate, combinandosi danno luogo al protone e al neutrone e questi, a loro volta, ai nuclei atomici. Le forze elettromagnetiche e deboli sono ben descritte dalla teoria unificata delle interazioni elettrodeboli (➔ deboli, interazioni). Al crescere della scala, le forze gravitazionali, nella forma indicata dalla relatività generale (➔ relatività), sono in grado di spiegare con elevatissima precisione il moto di pianeti, stelle e galassie. Su scala ancora più grande le difficoltà sono per il momento di natura osservativa, perché non è ancora ben nota la struttura su larga scala dell’Universo, ma non ci sono motivi fondati per supporre che le leggi della gravitazione falliscano a queste distanze.
La situazione cambia su scale più piccole di 10−18 m, dove rimangono molti problemi aperti. In particolare, non è noto se la lista delle particelle sia completa, oppure se esistano nuove particelle non osservate; infatti, lo schema teorico non sembra essere completamente soddisfacente se estrapolato a distanze molto inferiori a 10−18 m. Una plausibile modificazione della teoria (➔ supersimmetria) porterebbe quasi a raddoppiare il numero delle particelle esistenti. Il quadro teorico delle leggi su piccola scala è completamente diverso a seconda che l’ipotesi di supersimmetria sia o no corretta, e solo gli esperimenti potranno risolvere tale questione. Su scala ancora più piccola (10−36 m) emergono problemi connessi con la quantizzazione della gravità e la situazione è resa più difficile dal fatto che non è possibile fare esperimenti in questa regione. L’unica speranza è che le informazioni già acquisite sulla struttura delle particelle osservate siano sufficienti per determinare in maniera consistente la teoria su queste scale.
Alcuni fisici ritengono che sia possibile formulare una teoria di grande unificazione, a partire dalla quale la struttura delle particelle osservate (quark, leptoni e bosoni intermedi delle interazioni fondamentali), le loro masse e le loro proprietà siano deducibili, e nella quale sia la gravitazione sia le forze nucleari possano essere descritte mediante una trattazione unitaria. Nell’ipotesi di raggiungimento di questo obiettivo, la ricerca delle leggi fisiche fondamentali dovrebbe concludersi, perché una possibile violazione delle leggi proposte cadrebbe solo in regioni di energia non accessibili all’osservazione. Se un simile progetto arrivasse a termine, il ruolo della f. non sarebbe comunque esaurito. Innanzitutto, al contrario di quanto si potrebbe sperare, la conoscenza delle leggi di base non implica affatto una completa comprensione dei fenomeni e la vera difficoltà risiede non tanto nella formulazione delle leggi fondamentali, quanto nello scoprire le conseguenze di queste leggi e nel formulare leggi fenomenologiche. L’ostacolo principale al passaggio dalle leggi di base alla comprensione dei fenomeni è dovuto al fatto che solo per un numero estremamente piccolo di sistemi fisici si è in grado di descrivere il comportamento in maniera dettagliata e quantitativa, partendo dalle leggi fondamentali (➔ complessità).
In effetti, dopo la rivoluzione galileiano-newtoniana e quella relativistico-quantistica, a partire dagli ultimi decenni del 20° sec. la f. vive la cosiddetta rivoluzione della f. della complessità. La prima rivoluzione ha portato a una concezione della f. rigorosamente deterministica; la seconda, accanto all’affermazione della relatività spazio-temporale, ha sanzionato l’indeterminismo intrinseco dei fenomeni microscopici, evidenziando che è possibile fare solamente previsioni probabilistiche in relazione a questi fenomeni; la terza mostra che anche i fenomeni macroscopici possono non essere completamente prevedibili in quanto, anche per sistemi semplici (per es., tre corpi interagenti secondo la legge della gravitazione universale), può accadere che una piccola inevitabile incertezza sulle condizioni iniziali, intrinseca peraltro in ogni metodo di misurazione, faccia perdere la predicibilità a lungo termine dell’evoluzione del sistema (caos deterministico).
Questa mancanza di predicibilità a lungo termine, rilevata da J.-H. Poincaré agli inizi del 20° sec. in relazione al problema dei tre corpi, fu riscoperta dal meteorologo E.N. Lorenz nel 1963. La ragione profonda di questa imprevedibilità, verificata successivamente in numerosissimi fenomeni, risiede nell’instabilità dinamica tipica dei sistemi con legge di evoluzione non lineare. È inoltre emersa, anche grazie all’impiego di grandi calcolatori, una complessità strutturale dei sistemi fisici consistente nell’impossibilità di descrivere soddisfacentemente il comportamento di un sistema macroscopico riducendolo ai suoi componenti. La caratterizzazione quantitativa dell’impredicibilità legata a questi fenomeni è ottenuta introducendo opportuni indicatori (per es., entropia) e la f. della complessità ha cominciato a fornire risposte, molti fenomeni trovando la loro descrizione naturale nell’ambito di queste nuove concezioni.
Inoltre, come in passato, progressi nella f. sono anche dovuti a sviluppi tecnologici, che consentono di studiare materia in condizioni in precedenza non accessibili. A titolo d’esempio, si possono citare gli sviluppi delle tecniche di raffreddamento, che consentono di raggiungere temperature sempre più prossime allo zero termodinamico, la realizzazione di laser a impulsi ultracorti (anche dell’ordine di pochi femtosecondi), la generazione di pressioni elevatissime in campioni di materia irraggiata con impulsi laser, la realizzazione di trappole che consentono di contenere, in condizioni controllate, un piccolo numero di atomi. Questi sviluppi tecnologici hanno portato a nuove scoperte relative alla superconduttività, a grandi progressi nella spettroscopia con elevatissima risoluzione temporale (e al nascere di discipline gergalmente denominate femtochimica e femtobiologia), alla possibilità di eseguire esperimenti per la verifica di alcuni degli aspetti meno intuitivi della meccanica quantistica, come per es. l’entanglement. Inoltre, sempre sviluppi tecnologici consentono indagini con sempre migliore risoluzione spaziale.
Un ruolo sempre più importante nella f. è stato assunto dall’impiego del calcolatore elettronico. Nel campo della f. sperimentale, il controllo e la gestione dei dispositivi, la memorizzazione dei dati da essi forniti e una prima elaborazione di questi dati sono affidati a calcolatori on-line, mentre a più potenti calcolatori off-line è affidata l’elaborazione completa. È divenuto così possibile raccogliere ed elaborare una mole di dati osservativi prima impensabile. Analogamente, i moderni calcolatori hanno enormemente ampliato la capacità di calcolo in f. teorica, e hanno portato alla nascita della f. computazionale.
Un tempo, il passaggio dalle leggi alle loro conseguenze era effettuato mediante argomentazioni che potevano sia ricorrere a strumenti matematici rigorosi (raramente), sia basarsi (più spesso) su una logica intuitiva e sull’analogia. I calcolatori attuali hanno reso possibili imprese prima considerate impossibili (si pensi che una singola unità o nodo di calcolo può effettuare circa un miliardo di operazioni al secondo, ed esistono calcolatori con migliaia di nodi). Se, per es., si voleva calcolare teoricamente la temperatura di liquefazione di un gas monoatomico supponendo di conoscere la forma delle forze fra gli atomi, bisognava fare approssimazioni non del tutto giustificate e solo in tal modo si poteva, mediante calcoli semplici, ottenere una predizione per la temperatura di liquefazione, che peraltro non si accordava perfettamente con i dati sperimentali. L’unica strada per migliorare l’accordo fra le previsioni e l’esperimento consisteva nel rimuovere a poco a poco le approssimazioni, ma in tal modo si perveniva a espressioni molto complicate e di difficile computazione, anche ricorrendo a metodi di soluzione numerica da affidare al calcolatore. L’impiego di quest’ultimo consente invece di calcolare esattamente le traiettorie di un certo numero di atomi (per es. 104 atomi); si può così, per es., ‘simulare’ un sistema campione in un recipiente di dimensioni variabili e osservarne il comportamento. L’onere di calcolo di una tale simulazione è molto elevato, dovendosi calcolare le traiettorie di 104 particelle, tenendo conto delle interazioni fra tutte le particelle, e seguirle per un tempo sufficientemente lungo (onde poter rendere trascurabile la dipendenza dalle condizioni iniziali). Se si pensa alle difficoltà già insite nel classico problema dei tre corpi, ci si rende conto che un simile approccio non era nemmeno immaginabile in assenza degli attuali potenti calcolatori. Le simulazioni, come quella descritta nel precedente esempio del gas, hanno uno status intermedio fra teoria ed esperimento. Non sono certo un esperimento tradizionale, nel senso che non si usano atomi reali, tuttavia il compito del teorico rassomiglia molto a quello di un fisico sperimentale tradizionale: egli prepara il suo apparato sperimentale, decide le condizioni in cui l’esperimento avviene (condizioni iniziali, numero di particelle, forma delle forze ecc.), effettua la simulazione e infine ne analizza i risultati. La vecchia dicotomia teoria-esperimento è così spesso sostituita dalla tripartizione teoria pura, simulazione ed esperimento. La simulazione molto spesso fa da trait d’union fra la teoria e l’esperimento: lo sperimentatore confronta i suoi dati con i risultati delle simulazioni e il teorico cerca di predire i risultati delle simulazioni. Uno dei motivi dell’interesse suscitato dalle simulazioni consiste nel fatto che si possono simulare anche sistemi non esistenti in natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di divenire il laboratorio privilegiato per la verifica di nuove teorie che non potrebbero essere verificate direttamente nel mondo reale, troppo complesso.
F. sanitaria Termine usato per indicare due discipline collegate, ma distinte, in inglese denominate rispettivamente health physics e medical physics ( f. medica). La prima si occupa di preservare lo stato di salute e il benessere della collettività riducendo i rischi sanitari da radiazioni, la seconda si presenta come disciplina d’appoggio al medico nella risoluzione di problemi fisici connessi con la ricerca, la diagnosi e la terapia.