F, test
Un qualsiasi test statistico la cui distribuzione sotto l’ipotesi nulla è una distribuzione F di Fisher (➔ distribuzione di probabilità). Il nome è stato coniato da G.W. Snedecor in onore di R.A. Fisher, che per primo ne ha formulato la versione forse più nota, il test di uguaglianza delle varianze tra due gruppi diversi (test per l’eteroschedasticità tra gruppi). Un altro esempio importante è il test di ipotesi lineari in un modello di regressione che ha, come casi speciali, il test ANOVA per l’uguaglianza delle medie e il test della significatività di una regressione. La validità del test F richiede che i dati si distribuiscano secondo la legge normale. Quando la numerosità campionaria è molto elevata, questa assunzione non è necessaria e la distribuzione del test F può essere approssimata dalla sua distribuzione asintotica, che è la distribuzione chi-quadro con numero di gradi di libertà uguale al numero di equazioni lineari che definiscono l’ipotesi.
Dati due gruppi di osservazioni e due modelli di regressione lineari, uno per ciascun gruppo, si vuole sottoporre a verifica l’ipotesi nulla che i due gruppi abbiano la stessa varianza contro l’ipotesi alternativa che abbiano varianze diverse. A tale fine si stimano i parametri dei due modelli usando il metodo dei minimi quadrati (➔ minimi quadrati, metodo dei). La statistica del test F è definita semplicemente dal rapporto F=S2A∕S2B, dove S2A e S2B sono le usuali stime non distorte della varianza dei residui (➔ minimi quadrati, metodo dei). Se il modello lineare è gaussiano, tale statistica ha esattamente la distribuzione F con NA−2 e NB−2 gradi di libertà, dove NA e NB sono le numerosità del primo e del secondo gruppo di osservazioni.
Queste sono ipotesi rappresentabili come un sistema di una o più equazioni lineari nei parametri, come per es. l’ipotesi: β1+β2=0 e β2−2β3=1. Un caso particolare si ha quando il numero di restrizioni lineari è uguale a 1, come per es. l’ipotesi di significatività di un singolo coefficiente, β1=0, di una singola combinazione lineare dei coefficienti. In questo esempio, la statistica test F coincide con il quadrato del test T (➔ T, test). Non rientrano invece in tale categoria le ipotesi non lineari nei parametri, come per es. β1+β2∙β3=1. La validità del test F richiede che il modello di regressione sia gaussiano.