Nel calcolo delle probabilità (dal gr. στοχαστικός «congetturale»), lo stesso di casuale e aleatorio. Per estensione, nel linguaggio scientifico, si dice di strumento, procedimento, teoria, modello atti a descrivere e studiare situazioni che variano in base a leggi probabilistiche (e non deterministiche), come, per es., tutti i fenomeni naturali.
Generalizzazione dello schema teorico della meccanica classica, basata essenzialmente sulla sostituzione delle traiettorie deterministiche classiche con traiettorie aventi carattere probabilistico e connesse quindi con particolari processi stocastici. In opportune condizioni e per particolari sistemi dinamici, le equazioni fondamentali della meccanica s. mostrano una stretta connessione con le equazioni fondamentali della meccanica quantistica. È possibile allora sviluppare un adeguato schema di interpretazione fisica in base al quale le previsioni fenomenologiche della meccanica s. coincidono con quelle della meccanica quantistica per tutti gli effetti sperimentalmente osservabili. Pertanto, la meccanica s. fornisce un approccio alla quantizzazione dei sistemi dinamici (quantizzazione s.) basato su tecniche della teoria della probabilità e dei processi s., e quindi formalmente diverso da quello tradizionale della meccanica quantistica, basato su tecniche operatoriali, ma completamente equivalente a quest’ultimo dal punto di vista dell’interpretazione fisica. I fondamenti della meccanica s. sono stati posti da E. Nelson nel 1966, a partire da idee precedenti di I. Fényes (1952) e altri.
I processi s. o aleatori sono i modelli matematici adatti a studiare l’andamento dei fenomeni che seguono leggi casuali o probabilistiche, posto che in tutti i fenomeni naturali è presente, sia per la loro stessa natura, sia per gli errori di osservazione, una componente casuale o accidentale. Tale componente fa sì che a ogni istante t il risultato dell’osservazione sul fenomeno sia un numero aleatorio o variabile casuale Xt: non è possibile prevedere con certezza quale sarà tale risultato; si può solo affermare che esso assumerà uno tra più valori possibili, ciascuno dei quali ha una determinata probabilità. Lo studio delle singole variabili casuali Xt fa parte, più in generale, del calcolo delle probabilità; la teoria dei processi s. riguarda invece le proprietà globali dell’insieme Xt delle variabili casuali considerate. Le caratteristiche formali dell’insieme T in cui varia il parametro t possono essere diverse; i casi più importanti si hanno quando T è la retta (processi a parametro continuo) o l’insieme dei numeri interi (si ha cioè successione di variabili casuali: processi a parametro discreto). Il parametro t ha spesso il significato di tempo, e la terminologia è legata a tale interpretazione, ma naturalmente lo studio dei processi s. è più generale: t può avere, per es., un significato spaziale. Un tipico processo s. è quello che si ottiene quando, in una successione di lanci di una moneta, si considera il numero di volte che compare ‘testa’ su n lanci: si ha ovviamente una successione di variabili casuali Xn. Per ogni n, Xn può assumere i valori 0, 1, ..., n, con probabilità data dalla classica distribuzione binomiale o di Bernoulli, e il suo valore medio è (abbastanza intuitivamente) n/2. La teoria dei processi s. riguarda i problemi relativi alle variabili casuali Xn nel loro complesso; per es., come tende a distribuirsi Xn quando n aumenta indefinitamente; quanti lanci occorrono (con una data probabilità, o in media) perché Xn raggiunga (per la prima volta) un valore fissato; per quale frazione di tempo Xn si manterrà al di sotto (o al di sopra) della media; e così via.
Dal punto di vista formale un processo s. si definisce come una famiglia di variabili casuali {Xt}, t ⊂ T. Perché sia nota la distribuzione del processo, deve essere data, per ogni insieme finito {t1, ..., tn} ∈ T di valori del parametro, la distribuzione della variabile casuale a n dimensioni Xt1, ..., Xtn, per es. mediante la funzione di ripartizione Ft1, ..., tn (x1, ..., xn)=P(Xt1<x1, ..., Xtn<xn). Ciò assicura, per un teorema di A.N. Kolmogorov, l’esistenza della distribuzione di probabilità dell’insieme {Xt}.
Un processo s. si dice markoviano o di Markov (➔ Markov, Andrej Andreevič senior) se, per t1< ... < tr < tr+1 < ... <tn, si ha:
da processo. In altre parole, quando è noto il valore assunto dal processo all’istante tr, la distribuzione di probabilità negli istanti successivi a tr è indipendente dai valori assunti negli istanti precedenti tr. Un processo markoviano in cui le variabili casuali assumono al più un’infinità numerabile di valori si dice processo a catena di Markov. È una catena di Markov (a parametro discreto) il processo s. illustrato sopra, nel quale, una volta noto, per es., X10, cioè il numero di ‘teste’ apparse nei primi 10 lanci, lo sviluppo successivo è ovviamente indipendente dai valori X1, X2, ..., X9.
Si chiama così un processo s. che soddisfi, per t1<t2< ... <tn<t, la condizione
dove E (Xt | Xt1, ..., Xtn) indica il valore medio della variabile Xt condizionata dai valori assunti dalle variabili Xt1, ..., Xtn. Tale condizione traduce l’idea intuitiva di ‘gioco equo’: se Xt è il guadagno di un giocatore all’istante t, l’‘equità’ del gioco si esprime imponendo che il valore medio dell’incremento del guadagno, in ogni intervallo di tempo, sia nullo; quindi, fissato il valore Xtn del guadagno all’istante tn, il valore medio condizionato del guadagno in un istante successivo t deve essere ancora Xtn, indipendentemente dai valori assunti in precedenza.
Processo esprimibile come somma di una martingala e di un processo a variazione locale limitata, ossia un processo Vt tale che per ogni t>0 e per ogni realizzazione del processo risulti ∫t0 ∣dVs∣<∞; tale decomposizione è in generale non unica. Sono semimartingale i processi di diffusione, i processi a incrementi indipendenti e altri importanti esempi di processi stocastici. La semimartingala è il più generale processo per il quale è possibile definire il differenziale stocastico.
Un processo s. si dice stazionario se la distribuzione di probabilità del processo è invariante rispetto alle traslazioni di parametro (risulta in particolare che tutte le variabili casuali Xt hanno la stessa distribuzione). È intuitivo, per l’analogia con diverse leggi deterministiche di fenomeni fisici, che in molti casi un processo s., dopo una fase di transizione, tenda a una fase stazionaria, cioè a una situazione di regime in cui la distribuzione di probabilità non varia al variare del tempo. Si dice allora che il processo è regolare o ergodico, e una parte notevole della teoria studia appunto le condizioni sotto cui ciò si verifica.
Un processo s. si dice stazionario del secondo ordine, o in senso debole, se sono invarianti rispetto alle traslazioni del parametro i momenti primi e secondi E(Xt), E(XtXt′). Tale condizione è naturalmente molto più larga della stazionarietà, ma permette di ottenere importanti risultati.
Un processo s. si dice omogeneo se la probabilità condizionata al primo membro della [1] è invariante rispetto alle traslazioni del parametro. Un processo s. si dice a incrementi indipendenti se, per t1<t2≤t3<t4, le due variabili casuali Xt2−Xt3 e Xt4−Xt3 sono indipendenti. I processi omogenei a incrementi indipendenti costituiscono una classe molto importante sia negli sviluppi teorici sia nelle applicazioni, dato che in molti fenomeni si possono ritenere verificate le condizioni che li caratterizzano. Essi risultano markoviani; la media E(Xt) e la varianza σ2(Xt), se esistono finite, sono funzioni lineari di t.
Un processo s. si dice di diffusione se il quadrato della distanza del punto rappresentato dalla variabile casuale Xt dal punto di partenza X0 cresce, in media, proporzionalmente al tempo; il coefficiente di proporzionalità D si chiama coefficiente di diffusione. Se le variazioni delle posizioni in intervalli di tempo disgiunti sono variabili aleatorie indipendenti distribuite in modo normale si parla di diffusione normale, o processo di Wiener-Gauss, e si dice che le traiettorie eseguono il moto browniano.
Processo s. dove il valore della variabile Xt ha salti su un insieme discreto di tempi. In particolare, se i salti sono tutti della stessa ampiezza, si ha il processo di Poisson, in cui Xt ha distribuzione di Poisson. Uno dei più noti esempi di fenomeno che segue tale andamento è il numero Xt di particelle emesse da una sostanza radioattiva in un intervallo di tempo t: il processo si mantiene costante negli intervalli in cui non vi è emissione di particelle e ha un salto (cioè un aumento discontinuo) di ampiezza unitaria quando viene emessa una particella. Molti altri fenomeni, nei campi più disparati, hanno un andamento descritto molto bene da un processo di Poisson. È interessante citare, in particolare, alcuni esempi nel campo tecnico o del comportamento umano, che sono alla base di molte applicazioni della teoria delle code: il numero di chiamate in arrivo a un centralino telefonico, il numero di arrivi di clienti a un servizio, il numero di oggetti difettosi tra quelli prodotti da una macchina nel tempo t, il numero di incidenti di determinati tipi, e così via.
Quello riguardante la teoria dei processi s. è uno dei campi di ricerca più sviluppati nell’ambito della teoria della probabilità. Di grande interesse sono stati lo studio della teoria delle martingale e la diffusione dell’uso dei processi s. in matematica finanziaria e lo sviluppo della teoria dei processi markoviani, applicata nella meccanica statistica del non equilibrio, per es., nella teoria della metastabilità e gli studi riguardanti la teoria dei processi di punto. Di vasta applicazione sono gli studi riguardanti la teoria dei processi di diffusione, fecondi anche nella teoria dei campi. Nell’uso di tali processi nell’analisi dei sistemi con dinamica non lineare, il meccanismo della risonanza s. (➔ risonanza) rappresenta un potente strumento per la comprensione di fenomeni di natura biologica, fisica e chimica, e le sue applicazioni pratiche sono in grande sviluppo per lo studio di laser affetti da rumore, superconduttori, circuiti elettronici, riconoscimento delle immagini ecc.
Dato un processo s. Xt, appartenente alla classe delle semimartingale, il suo differenziale s. è definito formalmente dalla relazione
Più precisamente, dXt va considerata una funzione definita su intervalli I=(s,t) come dX(I)=Xt−Xs. Nella famiglia dei differenziali s. possono essere definiti la somma e il prodotto di differenziali. La nozione di differenziale s. è fondamentale nella teoria delle equazioni differenziali s. (➔ equazione).
In economia le grandezze che regolano i prezzi sono funzioni aleatorie descrivibili sia in modo ‘locale’, come innumerevoli sistemi elementari interagenti, sia come macrosistemi: i processi s. sono così divenuti un nucleo stabile delle teorie economiche e della finanza matematica e oggetto di un’intensa ricerca che vede coinvolti fisici, matematici, economisti nel tentativo comune di formalizzare e raffinare modelli sempre più realistici degli andamenti del mercato finanziario. L’attribuzione del premio Nobel per l’economia nel 1997 a R. Merton e a M. Scholes (➔ Black-Scholes, formula di) segna una data storica perché riconosce l’intervento, per la prima volta, di tecniche matematiche sofisticate (quali le equazioni differenziali s.) in economia non a livello di astratta speculazione teorica, ma nell’uso quotidiano degli operatori economici. In particolare, l’influenza della formula Black-Scholes è stata enorme: migliaia di agenti finanziari e investitori la usano quotidianamente e le idee per la sua deduzione sono state estese oltre l’ambito puramente finanziario, includendo, per es., la valutazione di contratti assicurativi o di progetti di investimento o di cespiti di tipo più generale. Data la sua importanza, una vasta campagna di ricerche è stata sviluppata nel tentativo di ampliarne la portata indebolendone le ipotesi e svincolandole, per quanto possibile, dal modello specifico nel cui ambito è stata dimostrata.
Nella modellistica matematica di fenomeni economici, l’uso di strumenti probabilistici sofisticati, quali le martingale, gli integrali s., le equazioni differenziali s. e le equazioni paraboliche a essi associate, ha una lunga storia la cui origine è riconducibile all’inizio del Novecento, quando L. Bachelier propose di descrivere le fluttuazioni dei prezzi dei titoli mediante il modello matematico messo a punto per il moto browniano. Più di cinquant’anni dopo, tra il 1950 e il 1970, teorie matematiche della valutazione dei prezzi dei titoli con rischio furono sviluppate da P.A. Samuelson e da altri ma si rivelarono insoddisfacenti. Una svolta si ebbe con il lavoro di Black e Scholes, che affrontarono il problema del prezzo delle opzioni. Un’opzione è un esempio di titolo derivato, ossia di un titolo i cui rendimenti dipendono in qualche modo dai rendimenti di altri titoli. In particolare, con il termine di opzione europea si intende un contratto tra due parti, un titolare (holder) e un garante (writer), che sancisce l’acquisizione di un diritto e l’assunzione di un obbligo. Nel caso di un’opzione europea di acquisto (call option) il titolare, dietro corresponsione di un premio (prime), fa proprio il diritto, ma non l’obbligo, di acquistare dal garante (nel caso analogo di un’opzione europea di vendita – put option – di vendere al garante) un attivo finanziario rischioso, titolo sottostante (underlying risky asset o underlying security) a una scadenza (maturity) e a un prezzo (exercise o strike price) pattuiti all’atto della stipula del contratto. Il garante, in cambio del premio, si fa carico dell’obbligo di soddisfare il titolare. Un’opzione di vendita è quindi assimilabile a un’assicurazione con cui l’assicurato (holder) si garantisce almeno il prezzo d’esercizio e l’assicuratore (writer) incassa un premio per il rischio sopportato. L’interesse della formula di Black e Scholes sta nel fatto che in essa il prezzo dell’opzione risulta indipendente dalla propensione al rischio dell’agente economico, che è difficile da valutare quantitativamente e che era presente nei precedenti approcci al problema. L’idea che ha consentito questo progresso è l’introduzione del principio della «determinazione del prezzo per simulazione» (pricing by simulation), che permette di costruire un portafoglio equivalente all’opzione e contenente solo opportune quantità del titolo rischioso sottostante l’opzione e del titolo non rischioso. Usando la terminologia della fisica, si può dire che l’ipotesi di non arbitraggio è una condizione di equilibrio, nel senso che, come i sistemi fisici isolati tendono all’equilibrio termodinamico, così un mercato in condizioni normali tenderà a utilizzare le eventuali finestre speculative facendole scomparire. Usando la stessa analogia si può dire che la condizione di completezza di un mercato è analoga a quella di assenza di transizioni di fase in un sistema fisico, vale a dire che, come per la maggior parte delle temperature una condizione di equilibrio è compatibile con una sola fase di un sistema fisico, così ci si attende che in condizioni di non arbitraggio nella maggior parte dei casi i prezzi delle opzioni risultino univocamente definiti. D’altra parte, come l’acqua, in opportune condizioni di pressione e di temperatura, può trovarsi in più fasi, così non è escluso che la condizione di assenza di arbitraggio sia insufficiente da sola per una determinazione univoca dei prezzi.
da Stocastica di Mark Kac (Enciclopedia della Scienza e della Tecnica)
Storicamente i processi stocastici furono introdotti nel mondo della scienza (e più tardi della matematica) sotto una forma assai diversa da quella derivante dalla definizione formale che viene oggi data. Basterà dire che, molto prima che fossero introdotti in forma matematica, i processi stocastici non erano definiti ma solamente descritti assegnando un insieme di distribuzioni opportunamente compatibili.
Dal punto di vista matematico, grazie al famoso teorema di ricostruzione di Andreij N. Kolmogorov del 1933, si provò che l’insieme di queste distribuzioni definisce in maniera unica un processo stocastico. Un matematico necessita del teorema di ricostruzione per sapere di cosa sta parlando, ma esso non è la sottigliezza matematica più profonda fra quante stanno alla base del concetto di processo stocastico. Per rendersene conto si può guardare alla teoria del moto browniano di una particella libera, limitandosi al caso unidimensionale, nella sua formulazione storica. Erano note dalla teoria di Einstein-Smoluchowski le funzioni di distribuzione congiunte della posizione di una particella dotata di moto browniano. Si vede facilmente che la condizione di compatibilità è contenuta nella relazione spesso detta equazione di Chapman-Kolmogorov e quindi si può definire il moto browniano a partire dalle funzioni di distribuzione.
Sorprendente e interessante è il fatto che il sottoinsieme delle traiettorie continue non è misurabile. Se la teoria matematica rispecchiasse la realtà fisica, tale sottoinsieme dovrebbe avere misura 1, in accordo con l’osservazione sperimentale che le traiettorie browniane sono continue. Si può rimediare a questo, come fece Joseph L. Doob, sfruttando il fatto che, benché tale insieme non sia misurabile, esso ha misura esterna eguale a 1. Esiste però una maniera molto più concreta per definire il moto browniano, che fu introdotta per la prima volta da Norbert Wiener. Restringendosi all’intervallo 0,t,1, Wiener mostrò che una particolare successione di traiettorie casuali continue converge uniformemente con probabilità 1 e che il limite così ottenuto ha distribuzioni congiunte identiche al moto browniano. Molte delle difficoltà ottenute per il moto browniano vengono così superate grazie alla definizione introdotta da Wiener.
Un altro esempio è dato dalla teoria delle catene di Markov. Dopo aver definito un processo markoviano con tempi discreti e con spazio degli stati finito e la matrice stocastica associata alla probabilità di transizione, si mostra come quest’ultima caratterizza il processo, e dunque la teoria delle catene di Markov con spazio degli stati finito si riduce alla teoria delle matrici stocastiche. Il carattere probabilistico di questa teoria (e di altre parti della teoria dei processi stocastici) emerge dagli esempi e dalle numerose applicazioni. Analogamente, in una situazione di tempo continuo e con spazio degli stati finito, un processo markoviano omogeneo dà origine a semigruppi di matrici; la teoria dei processi di Markov omogenei nel tempo (anche quelli a stati continui) è sotto molti punti di vista equivalente alla teoria dei semigruppi di operatori lineari.
Nella letteratura matematica le equazioni che legano questi semigruppi di matrici sono note col nome di equazioni di Kolmogorov; sono invece note ai fisici col nome di master equations.
Anche in questo caso sono gli esempi e le applicazioni che vivificano la teoria. Un processo a tempo continuo e a valori reali è di Markov se, in termini un po’ imprecisi, il futuro è indipendente dal passato una volta assegnata la situazione attuale. L’esempio più noto di un processo di Markov a più componenti è la coppia posizione e momento di una particella legata armonicamente che compie un moto browniano. L’esempio storico più noto di processo di Markov a una sola componente, con un continuo di stati, è il processo di Ornstein-Uhlenbeck. Storicamente tale processo nasce come processo markoviano, stazionario e gaussiano la cui funzione di correlazione decresce esponenzialmente nel tempo. È interessante studiarne le principali proprietà e il suo stretto legame con il processo di Wiener. È altrettanto interessante analizzare i processi stocastici definiti da equazioni differenziali a partire da un metodo proposto da Paul Langevin per descrivere il moto di una particella libera in un fluido. Un altro importante esempio è dato dalla formulazione di Onsager-Machlup della termodinamica lineare lontana dall’equilibrio (termodinamica irreversibile).