indipendente, variabile
In ambito matematico e fisico grandezza o variabile il cui valore non dipende da altre grandezze o variabili. Una variabile è una quantità che può assumere tutti i valori di un certo insieme numerico, o più in generale un simbolo che rappresenta successivamente tutti gli elementi di un dato insieme I. Si scriverà, per es., x∈I e I si chiamerà il campo di variabilità di x; gli elementi di I si diranno i valori della x. In una funzione, a ogni valore della variabile i. corrisponde uno e un solo valore della variabile dipendente (per cui il valore di quest’ultima dipende, secondo una legge fissata, dai valori assunti dalla variabile i.). Esistono anche funzioni in due o più variabili i.: in tal caso, a ogni valore di ciascuna delle variabili i. corrisponde uno e un solo valore della variabile dipendente (per es., la formula z=f(x, y) significa che a ogni coppia di valori delle variabili i. x e y corrisponde uno e un solo valore della variabile dipendente z).
Nelle applicazioni statistiche, si parla di variabili i. quando due (o più) variabili aleatorie sono tra loro i., cioè sono tali che la legge di probabilità dell’una non cambia qualora si condizioni rispetto alle altre. In formule, due variabili aleatorie X e Y sono i. se, per ogni x, y nei loro supporti, si ha P(X<x, Y<y)=P(X<x)P(Y<y).
In tali modelli si rappresenta abitualmente una relazione tra due o più variabili come una funzione nella quale la variabile dipendente è la variabile oggetto di interesse dell’analisi, mentre le variabili i. sono i regressori. Così, nel caso di un modello di regressione lineare (➔ regressione parametrica, modelli e stime di), y=α+β1x1+β2x2+u, le variabili x1 e x2, che sono i regressori del modello, sono le variabili i. nella funzione lineare y=α+β1x1+β2x2, che non tiene conto del termine di errore. Qualora il modello di regressione soddisfi alcune condizioni, in particolare, se E(u|x1,x2)=0, allora y=α+β1x1+β2x2 è l’equazione che descrive la media della variabile dipendente y rispetto ai regressori x1 e x2, E(y|x1,x2).
Nell’impostazione classica del modello di regressione lineare, i regressori sono considerati come variabili non aleatorie, prefissate dallo statistico o da chi pianifica l’analisi. In questo caso i regressori sono variabili i. da y: quindi valori diversi di x1 e x2 possono influire sui valori della variabile y. In questa relazione non c’è reciprocità, in quanto i valori di x1 e x2 sono prefissati. Tale tipo di approccio, insieme alla relazione funzionale E(y|x1 x2)=α+β1x1+β2x2, nella quale x1 e x2 sono le variabili i., nel senso matematico della parola, ha portato in passato all’uso indiscriminato dei due termini regressore e variabile i., ora sempre meno diffuso.