Stabilità
Uno degli aspetti fondamentali del mondo naturale è la sua potenzialità di trasformazione; è proprio l'evolvere degli oggetti che permette all'uomo di percepire lo scorrere del tempo. Non tutto però si trasforma in continuazione. Una configurazione che permane nel tempo è denominata una configurazione di equilibrio, oppure, più semplicemente, equilibrio.
Al concetto di equilibrio è collegato quello di stabilità. Una configurazione di equilibrio è stabile se, qualora perturbata da un fattore esterno di bassa intensità, essa viene trasformata in una nuova configurazione (non necessariamente di equilibrio) vicina a quella iniziale. Un ombrellone ben piantato nella sabbia è un prototipo di equilibrio stabile: piccole folate di vento, o colpi di pallone di bassa forza, possono modificarne la posizione, ma di poco rispetto a quella iniziale. Un ombrellone piantato male, invece, è instabile: può bastare un piccolo urto per farlo crollare al suolo. L'esempio più classico di equilibrio stabile è quello di una pallina posta sul fondo di una ciotola: se la pallina viene sottoposta a un urto leggero, essa si sposta leggermente e, grazie alla forza di gravità e all'attrito con la superficie della ciotola, si riporta nella configurazione iniziale. Se la pallina è posta invece in cima a una ciotola capovolta, si ha un esempio di equilibrio instabile: in assenza di perturbazioni esterne, la pallina resta nella posizione prescritta, ma basta un piccolo urto per farla allontanare molto dalla configurazione di equilibrio.
Come esempio matematico prototipo, si consideri una sequenza di numeri X(1), X(2), X(3),..., dove X(n) è l'output all'istante n. Si supponga che la sequenza X(n) sia individuata dalla ricorrenza (lineare)
X(n+1)=aX(n)
dove a è una costante positiva assegnata. È facile constatare che, dato il valore iniziale X(0), la sequenza ha la forma esplicita
X(n)=X(0)an.
Scegliendo X(0)=0, si ha X(n)=0 per ogni n. In altre parole, la configurazione X=0 è di equilibrio. Si tratta di una configurazione stabile? Cosa succede se il valore di X(0) è piccolo, ma non nullo? Tutto dipende dalla grandezza della costante a. Se tale costante è compresa tra 0 e 1, la sequenza X(n) tende a decrescere man mano che n cresce; se la costante a è maggiore di 1, la sequenza X(n) è costituita da valori sempre più grandi che si allontanano indefinitamente dalla configurazione di equilibrio identicamente nulla. Problemi analoghi si possono porre lavorando con sistemi dinamici di tipo diverso dalle successioni ottenute per ricorrenza. Il caso più classico è quello delle cosiddette equazioni differenziali (ordinarie e alle derivate parziali), in cui il parametro temporale n è una variabile continua e non discreta.
La s. di un equilibrio è la proprietà per cui piccole perturbazioni della configurazione sotto osservazione producono solo piccoli cambiamenti. Le piccole perturbazioni possono essere sia nella sola configurazione di partenza sia nella dinamica stessa per tutta la sua durata. Per definire in maniera precisa e quantitativa il concetto di s. occorre quindi precisare che cosa significa essere 'piccolo' sia per una perturbazione sia per un cambiamento. Per questo motivo, nella modellizzazione matematica di un fenomeno è utile introdurre concetti di metrica (o distanza); è possibile inoltre parlare di s. introducendo solamente una struttura topologica, vale a dire una definizione di vicinanza/lontananza più debole di quella fornita dalla distanza. Dato che la s. dipende dai concetti di piccolo/grande e vicino/lontano, non esiste una definizione assoluta per essa, essendo relativa alla metrica specifica che si sceglie per osservare il fenomeno. In particolare, è sempre indispensabile specificare rispetto a quale nozione di distanza si stia considerando la stabilità. La scelta di tale metrica è suggerita dal problema stesso e dipende dalle quantità significative nel fenomeno analizzato. Non è inusuale trovare nella letteratura scientifica risultati sullo stesso problema che indichino proprietà di s. diverse per la stessa configurazione, relative a metriche differenti.
Oltre agli esempi di s. tipici della fisica, esistono molti altri ambiti in cui lo stesso concetto è estremamente utile. Per stabilità di una moneta, per es., si intende la proprietà per cui il valore della moneta stessa, che determina il suo potere di acquisto, non varia sensibilmente al variare delle condizioni del mercato e dell'economia. Le perturbazioni cui il prezzo della moneta è sottoposto sono le fluttuazioni del mercato e delle condizioni economiche, mentre ciò che viene modificato è il valore della moneta. Nel caso in cui i prezzi non registrino rialzi o ribassi rilevanti nell'arco di un determinato periodo, indipendentemente da fenomeni esterni (per es., un rincaro dell'energia), si dice che i prezzi (e la moneta) sono stabili.
Anche in farmacologia si utilizza il concetto di stabilità. Un farmaco è stabile quando, in un determinato periodo di tempo, le sue proprietà essenziali (che si potrebbero definire la sua configurazione) non cambiano o cambiano entro limiti tollerabili se esso è sottoposto a interventi esterni di piccola intensità.
Da questi esempi emerge chiaramente il ruolo fondamentale giocato dal concetto di s.: si tratta della garanzia che un'opportuna configurazione subisca nel tempo modifiche di piccola entità, qualora siano presenti delle cause esterne anch'esse sufficientemente piccole. Nell'ambito fisico si suppone, come paradigma, che le uniche configurazioni di equilibrio osservabili nel mondo reale siano quelle stabili. Infatti, in un qualsiasi sistema, influenze esterne, seppure piccole, sono sempre presenti: di conseguenza una configurazione non stabile viene distrutta da tali perturbazioni e risulta, in sostanza, inosservabile. Per questo motivo, determinare a livello teorico l'esistenza di una configurazione di equilibrio non è considerato un risultato completamente soddisfacente fino a che non se ne dimostri anche la stabilità.
Uno degli esempi storici più interessanti relativamente al problema della s. è associato al problema degli N corpi, ossia al problema di determinare il moto di N oggetti (pianeti, stelle, astri ecc.) che interagiscono tra loro attraverso la forza di gravità. Nel caso in cui i corpi siano solo due, è possibile mostrare che le soluzioni descrivono tutte orbite ellittiche. Nel caso generale, anche se è possibile scrivere esplicitamente le equazioni del moto, dette equazioni di Newton, è impossibile determinare tutte le soluzioni di tali equazioni, ossia riuscire a prevedere quale sarà l'effettiva evoluzione del fenomeno. J.L. Lagrange e L. Euler determinarono soluzioni esplicite del sistema per il moto di tre corpi in interazione gravitazionale. La soluzione di Lagrange corrisponde al caso in cui i tre corpi si trovino disposti, in ogni istante, sui vertici di un triangolo equilatero, mentre per la soluzione di Euler i tre corpi sono sempre allineati. Entrambe sono soluzioni delle equazioni di Newton, ma mentre quella di Lagrange è una soluzione stabile in regimi opportuni (uno dei tre corpi deve avere una massa sensibilmente più piccola di quelle degli altri due), la soluzione di Euler è sempre instabile e, pertanto, inosservabile in natura. Il moto descritto dal sistema Sole-Giove-asteroidi troiani corrisponde esattamente a una delle soluzioni di Lagrange. Un'altra classe di soluzioni stabili per il problema dei tre corpi, scoperta da G.W. Hill, descrive il moto di due masse vicine l'una all'altra e distanti da una terza: tale configurazione è osservata in natura, per es., nel caso del sistema Sole-Terra-Luna.
Nel 2000 A. Chenciner e R. Montgomery hanno dimostrato l'esistenza di un'ulteriore soluzione periodica del problema dei tre corpi. La configurazione risultante è caratterizzata dal fatto che i tre corpi percorrono tutti la stessa curva piana, che ha la forma di un otto. Come le soluzioni di Lagrange e di Hill, anche questa è stabile, ma il dominio di s., ossia la grandezza delle perturbazioni ammissibili, è molto piccola, pertanto, si tratta di una configurazione particolarmente improbabile (esperimenti al computer indicano che ci dovrebbe essere al più una tale configurazione in ogni galassia).
Determinazione della stabilità
Per analizzare la s. di configurazioni di equilibrio vengono utilizzate diverse strategie, la cui efficacia dipende dal tipo di problema. Tra le varie direzioni possibili, due sono particolarmente duttili e, per questo motivo, ricorrono molto spesso: il metodo dell'energia e l'analisi spettrale.
Il metodo dell'energia si basa sull'individuazione di un opportuno funzionale della soluzione stessa che, all'aumentare del tempo, rimanga limitato in funzione della grandezza della perturbazione data. L'esempio di una pallina all'interno di una ciotola è illuminante: in questo caso, l'energia totale della pallina (la somma dell'energia potenziale e dell'energia cinetica) rimane sempre minore o uguale al valore che assume all'istante iniziale. Piccole perturbazioni, quindi, corrispondono a piccole variazioni di energia totale all'istante iniziale e, di conseguenza, a piccole variazioni di energia totale a ogni istante successivo. Da qui è possibile dedurre (senza grandi difficoltà) che anche la posizione della pallina sottoposta alla perturbazione si discosta di poco dalla configurazione di equilibrio. In generale, la strategia è quella di individuare un'energia del sistema, cioè un funzionale che non cresce nel tempo. Tale funzionale è anche detto funzionale di Lyapunov. Non tutti i sistemi ammettono funzionali di Lyapunov e, anche nel caso in cui siano presenti, la loro espressione può non essere facile da determinare. Nella maggior parte dei casi è la modellizzazione fisica a suggerire la forma del funzionale di energia.
L'analisi spettrale è uno strumento efficace nel caso di sistemi lineari. Nel caso non lineare, essa viene applicata a sistemi lineari opportuni che approssimino bene il sistema di partenza, nelle vicinanze della configurazione di equilibrio. L'idea alla base dell'analisi spettrale è estremamente profonda. Essa si fonda sull'interpretazione della soluzione del sistema come sovrapposizione (ossia come somma) di segnali elementari. Per analogia, si può immaginare la soluzione come il suono di un'orchestra e i segnali elementari come il suono di ogni singolo strumento. Conoscere l'evoluzione di ogni strumento permette di conoscere quella dell'orchestra intera (è a questo livello che la proprietà di linearità si rivela essere indispensabile). Nel caso finito-dimensionale, vale a dire se lo spazio delle configurazioni ha dimensione finita, per avere s. è necessario e sufficiente che tutti i segnali elementari, se sottoposti a piccole perturbazioni, rimangano sufficientemente prossimi alla loro forma non perturbata. Se si suppone, per es., che ogni singolo segnale sia individuato da una sequenza di output X(n), determinato dalla ricorrenza X(n+1)=aX(n), con a costante positiva che cambia da segnale a segnale, la condizione di s. si traduce nella richiesta che tutti i valori delle costanti a dei segnali elementari siano compresi tra 0 e 1. Il problema della s. si riconduce quindi alla determinazione dei valori a relativi a ogni singolo segnale; l'insieme di tali valori è detto spettro. L'analisi è resa complicata dal fatto che i fenomeni naturali non appaiono decomposti esplicitamente in segnali elementari, e l'unica informazione accessibile è il risultato finale della sovrapposizione dei singoli elementi. Si tratta, in sostanza, di determinare il suono di ogni singolo strumento a partire dal suono dell'intera orchestra. Nel caso infinito-dimensionale, la condizione di s. dello spettro, detta stabilità spettrale, è, in generale, solamente necessaria, ma non sufficiente per la s. del sistema.
Instabilità. - Non meno interessante dell'analisi di s. è lo studio dell'instabilità, dato che questa è un ingrediente indispensabile per la formazione di nuove strutture potenzialmente osservabili. Un equilibrio instabile, infatti, corrisponde, in genere, a un fenomeno di transizione da una configurazione (instabile per l'appunto) a un'altra (stabile). Nell'ambito dell'instabilità rientrano due meccanismi particolarmente interessanti: il caos e l'instabilità di Turing.
Le basi per una definizione rigorosa del caos sono state poste dal matematico francese H. Poincaré. Uno degli elementi chiave è la cosiddetta dipendenza sensibile dalle condizioni iniziali. Un sistema dipende in maniera sensibile dalle condizioni iniziali se piccole modificazioni nella configurazione iniziale sono in grado di provocare grandi variazioni nell'evoluzione successiva. Si tratta dell'opposto di quel che accade per equilibri stabili, dove perturbazioni sufficientemente piccole provocano piccole conseguenze. A causa di tale forte instabilità, l'evoluzione di un sistema caotico è sostanzialmente impredicibile a lungo termine, dato che basta un piccolo errore di misurazione iniziale per perdere rapidamente traccia dell'evoluzione reale del sistema. L'esempio tipico è quello della meteorologia: le grandi difficoltà incontrate nel fare le previsioni del tempo a lungo termine risiedono proprio nella presenza di regimi instabili.
Anche se le singole traiettorie di un sistema caotico si allontanano rapidamente le une dalle altre per via della dipendenza sensibile dalle condizioni iniziali, è possibile che l'andamento globale delle soluzioni stesse possieda una certa regolarità che rende prevedibili alcune informazioni. Molti sistemi dinamici caotici possiedono un attrattore globale, ossia tutte le soluzioni tendono, per tempi grandi, a percorrere lo stesso tipo di traiettoria.
La caoticità di un sistema ne rende impossibile la previsione della configurazione specifica a un dato istante; nonostante ciò, è possibile prevedere la struttura dell'insieme delle configurazioni che vengono attraversate nel corso dell'evoluzione. L'attrattore globale, quindi, diviene una struttura stabile, e ciò nel senso che partendo da una configurazione sufficientemente vicina a esso, l'evoluzione rimane localizzata vicino all'attrattore per tutti i tempi successivi. In questo caso è possibile parlare di stabilità orbitale, nel senso che è l'intera orbita a essere stabile.
Una sfida molto affascinante nell'ambito della biologia è lo studio dei meccanismi che determinano lo sviluppo negli embrioni di strutture complesse a partire da gruppi di cellule apparentemente omogenee. Il matematico britannico A.M. Turing propose un meccanismo estremamente semplice per la formazione spontanea di strutture spaziali non uniformi a partire da una distribuzione omogenea di agenti chimici detti morfogeni. Tale fenomeno, detto instabilità di Turing, è considerato da molti studiosi come uno dei meccanismi chiave nell'ambito della morfogenesi, ossia della genesi delle forme naturali. L'ipotesi di base è che i morfogeni possano, allo stesso tempo, reagire tra loro e diffondere nello spazio in maniera casuale. Nel caso in cui questi due effetti siano combinati in maniera opportuna, in particolare controllando in modo appropriato i tassi di reazione e le velocità di diffusione, si riesce a mostrare che configurazioni di equilibrio uniformemente distribuite sono instabili e, di conseguenza, piccole perturbazioni generano ben precise strutture anisotrope, determinate dall'interazione dei due meccanismi in gioco. Più precisamente, nei modelli di reazione-diffusione, si suppone che i morfogeni siano distinti in due classi: gli attivatori e gli inibitori. Se la reazione determina l'aumento della concentrazione locale di attivatore e, allo stesso tempo, genera un inibitore, che diffonde più rapidamente dell'attivatore, si ha una zona ad alta concentrazione di attivatore circondata da una regione ad alta concentrazione di inibitore. Se le due classi si distinguono per il tipo di pigmentazione che generano, a partire da questa struttura differenziata si determinano corrispondenti colorazioni non uniformi. Negli studi proposti da vari matematici e biologi si mostra come molte delle colorazioni degli esseri viventi si possano riprodurre al calcolatore attraverso semplici modelli di reazione-diffusione, sfruttando il meccanismo di Turing e regolando in maniera opportuna i parametri in gioco e la geometria dei domini considerati. Chiaramente la coincidenza tra i risultati di questi modelli qualitativi e il fenomeno naturale non dimostra che il meccanismo che regola lo sviluppo biologico sia quello proposto da Turing e la validità scientifica di questo punto di vista rimane da provare.
bibliografia
H. Meinhardt, The algorithmic beauty of sea-shells, Berlin 1995, 20033; H. Poincaré, Geometria e caso: scritti di matematica e fisica, a cura di C. Bartocci, Torino 1995; J.D. Murray, Mathematical biology, Berlino 2003; V. Arnold, Ordinary differential equations, Berlino-New York 2006.