consistenza
Proprietà asintotica di cui può godere una procedura statistica. La proprietà di c. è definita separatamente per uno stimatore e un test.
Nel caso di uno stimatore, la c. garantisce che, all’aumentare della numerosità campionaria, lo stimatore converge in un particolare senso probabilistico al parametro di interesse. Uno stimatore θ ̂ di un parametro θ ̂ è una funzione delle osservazioni campionarie (X1,...,Xn). Considerando il campione come un insieme di possibili realizzazioni di n variabili aleatorie, si scrive θ ̂n per evidenziare la dipendenza della distribuzione dello stimatore dalla dimensione campionaria. All’aumentare di quest’ultima, {θ ̂n} descrive una successione di variabili aleatorie. La c. di θ ̂n riguarda le proprietà asintotiche della distribuzione della successione θ ̂n. Più precisamente, si dice che θ ̂n è consistente per θ̂n se tale successione ha limite in probabilità uguale a θ, ossia se la distanza tra θ ̂n e θ diventa arbitrariamente piccola con probabilità tendente a 1 al crescere della numerosità campionaria. Questa definizione di c. è talvolta chiamata c. in senso debole, per distinguerla da quella in senso forte, basata sulla convergenza quasi certa della successione θ ̂n a θ . Poiché la convergenza quasi certa è più forte della convergenza in probabilità, uno stimatore consistente in senso forte è anche consistente in senso debole, mentre non è vero il contrario. La c. di uno stimatore è garantita quando il suo errore quadratico medio o MSE (Mean Square Error) tende a zero. Questo perché MSE=E(θ ̂−θ)2→0 coincide con la definizione di convergenza in media quadratica, che a sua volta implica la convergenza in probabilità, di θ ̂ a θ. Infatti, indicando con E(θ ̂) la media dello stimatore θ ̂, il MSE si scompone nella somma: MSE(θ ̂)=E(θ ̂−E(θ ̂))2+(E(θ ̂) −θ ̂)2. Il primo termine è la varianza dello stimatore θ ̂, mentre il secondo, che indica la distanza tra il valore atteso dello stimatore e il vero parametro, è chiamato distorsione ed è nullo nel caso in cui θ ̂ sia uno stimatore corretto (non distorto). Per provare la c. è quindi spesso conveniente dimostrare che entrambi gli addendi hanno limite pari a zero al crescere della numerosità campionaria.
Nel contesto del campionamento casuale semplice, la media campionaria e la varianza campionaria sono stimatori consistenti, rispettivamente, della media e della varianza della popolazione. Gli stimatori di massima verosimiglianza sono in genere consistenti per i parametri di interesse, anche se alcune condizioni di regolarità devono essere garantite.
Un test (➔) è consistente se, con probabilità che tende a 1 al crescere della numerosità campionaria, esso rifiuta l’ipotesi nulla quando questa è falsa. Si supponga di voler verificare l’ipotesi nulla (➔ ipotesi statistica) H0 che la distribuzione F della popolazione appartenga a un insieme Ω0 contro l’alternativa H1che invece F sia in Ω1. Si consideri un test basato sulla statistica test Tn=T(X1,...,Xn) definita da una qualche trasformazione T delle osservazioni campionarie X1,...,Xn. Si dice che il test è consistente per l’ipotesi nulla F∈Ω0 contro l’alternativa F∈Ω1, se fissato un livello di significatività, α<1, la potenza del test tende a 1 al crescere della numerosità campionaria n. In formule, assumendo che la regione del rifiuto del test al livello α sia definita dall’intervallo ∣Tn∣>cn,α, il test è consistente se, al crescere di n, Prob(∣Tn∣>Cn,α)→1 quando F∈Ω1.