distribuzione di probabilita
distribuzione di probabilità Concetto strettamente legato a quello di variabile aleatoria (➔). In termini intuitivi, una variabile aleatoria è una variabile che può assumere valori diversi in corrispondenza di eventi casuali diversi. Data una variabile aleatoria X, la sua d. di p. è la funzione che a un insieme di valori possibili di X associa la rispettiva probabilità (➔), secondo una regola precisa. Di seguito si riportano i principali modi di caratterizzare una d. di probabilità.
Per un’arbitraria variabile aleatoria X, essa è definita dalla funzione F(x)=P(X≤x), che associa a ogni possibile valore x di X la p. che la variabile aleatoria sia inferiore o uguale a x. Come conseguenza, si ottiene una semplice espressione per la probabilità di un qualunque intervallo (a,b), P(a<X≤b)=F(b)−F(a). Qualsiasi funzione di ripartizione deve essere non decrescente, continua a destra, e tale che limx→∞F(x)=1, limx→−∞F(x)=0. Qualunque funzione F che soddisfi tali proprietà è una funzione di ripartizione, e quindi esiste una variabile aleatoria la cui d. di p. è descritta da F. Se X è un vettore aleatorio, per es., se X=(X1,X2), la sua funzione di ripartizione è definita da F(x1,x2)=P(X1≤x1,X2≤x2). Le funzioni di ripartizione F1(x1)=P(X1≤x1) e F2(x2)=P(X2≤x2) delle componenti del vettore aleatorio sono dette marginali. Se vale F(x1, x2)=F1(x1)F2(x2), X1 e X2 sono indipendenti. La definizione di funzione di ripartizione per una variabile aleatoria binaria e il concetto di d. marginale si generalizzano al caso di un vettore aleatorio di dimensione n>2: F(x1,...,xn)= P(X1≤x1,...,Xn≤xn).
Intuitivamente, sono funzioni che associano a ciascuno dei valori possibili x della variabile aleatoria X la p. di tale valore. Per poterne precisare le definizioni è necessario distinguere i due casi di una variabile aleatoria discreta e di una variabile aleatoria continua. Si definisce discreta una variabile aleatoria se può assumere valori all’interno di un insieme finito o al più numerabile (come l’insieme infinito {1,2,3,...}). Essa è caratterizzata da una e una sola funzione di massa di probabilità. Se X è una variabile aleatoria discreta che può assumere, per es., valori nell’insieme finito {1,2,3,..., k}, la sua funzione di massa di p. è definita da f(j)=P(X=j), j=1,..., k. La relazione tra le funzioni f e F è definita dalle equazioni f(j)=F(j)−F(j−1) e F(j)=f(1)+f(2)+...+f(j). Una variabile aleatoria è continua, quando è continua la sua funzione di ripartizione (il grafico della funzione di ripartizione non presenta salti). Tale variabile è caratterizzata da una e una sola funzione di densità e per essa non è definita la funzione di massa di probabilità. La funzione di densità f è uguale alla derivata prima della funzione di ripartizione e si ha, quindi, per ogni x, F(x)=ʃx−∞f(u)du. Intuitivamente, essa descrive la concentrazione della massa di p., in un intorno infinitesimo di ciascun possibile valore x, essendo P(X≤x)=F(x+ε)−F(x)≈εf(x). Ogni funzione di densità è non negativa, cioè f(x)≥0, e integra a 1, cioè ʃ∞ −∞f(u)=1. Per la trattazione della funzione generatrice dei momenti, ➔ momenti, funzione generatrice dei.
Esistono numerose famiglie di d. di p., ciascuna con caratteristiche particolari, che le rendono più adatte di altre a descrivere certi fenomeni. Ognuna è identificata da uno o più parametri, spesso legati a caratteristiche della d., quali la sua tendenza centrale o la sua dispersione.
Le più comuni sono le d. discrete. Tra queste la d. di Bernoulli (➔ Bernoulli, distribuzione di); la d. binomiale, che è la d. di p. del conteggio del numero di successi nella ripetizione di N esperimenti, identici e indipendenti l’uno dall’altro, in cui la p. di successo in ciascuno degli N esperimenti è p; infine, la d. di Poisson o degli eventi rari (➔ Poisson, distribuzione di). ● Ci sono poi le d. continue. La d. uniforme su un intervallo (a, b), o d. rettangolare, ha funzione di densità f(x)=1/(b−a) per a<x<b, nulla altrove. La sua densità è costante in (a, b): la p. di qualsiasi sottoinsieme dell’intervallo (a, b) dipende solo dalla sua lunghezza. Per la trattazione della d. gaussiana o normale, ➔ gaussiana, distribuzione. La d. esponenziale è quella di una variabile aleatoria non negativa. Ha funzione di densità f(x)=λ e‒λx per x>0 e media e varianza pari a 1/λ e 1/λ2 rispettivamente. È spesso usata nella modellizzazione di un tempo aleatorio, come, per es., un tempo di attesa. La d. gamma è la d. della somma di V variabili aleatorie esponenziali di parametro λ e tra loro indipendenti. La sua media è v/λ e la sua varianza v/λ2. La d. chi-quadro è quella di una variabile aleatoria gamma per v=d/2 e λ=1/2. Il parametro d, intero positivo, è detto numero dei gradi di libertà. Una d. chi-quadro con d gradi di libertà si ottiene come somma dei quadrati di d variabili aleatorie gaussiane standardizzate indipendenti. La d. di Cauchy ha, per λ>0, funzione di densità λl[π(λ2+(x−μ)2)]: la particolarità è di non possedere momenti finiti di alcun ordine. La d. t di Student è la d. del rapporto tra due variabili aleatorie indipendenti: una gaussiana standardizzata a numeratore e la radice quadrata di una chi-quadro con k gradi di libertà, divisa per k, a denominatore. La d. F di Fisher è quella del rapporto tra due variabili aleatorie chi-quadro indipendenti con d1 e d2 gradi di libertà, divise per i rispettivi gradi di libertà. In particolare, una variabile aleatoria F con gradi di libertà (1, d) corrisponde al quadrato di una variabile aleatoria t di Student con d gradi di libertà.