In statistica e in econometria, il modello probit è un modello di regressione nonlineare utilizzato quando la variabile dipendente è di tipo dicotomico. L'obiettivo del modello è di stabilire la probabilità con cui un'osservazione può generare uno o l'altro valore della variabile dipendente; può inoltre essere utilizzato per classificare le osservazioni, in base alla caratteristiche di queste, in due categorie.[1]
Il modello è stato proposto per la prima volta da Chester Ittner Bliss nel 1934,[2] ampliato l'anno successivo da Ronald Fisher che introdusse un metodo iterativo per la stima dei parametri tramite il metodo della massima verosimiglianza.
Un modello di regressione dove la variabile dipendente è dicotomica, ossia una variabile che può avere come unici valori 0 e 1 o riconducibili ad essi, calcola la probabilità che questa variabile acquisisca valore 1.
Data questa limitazione dei valori di , la funzione da adottare per la regressione deve essere nonlineare con codominio , una caratteristica che possiedono le funzioni di ripartizione.[1] La necessità di non linearità deriva dal fatto che la funzione, per poter rimanere all'interno del codominio dato, deve avere derivata prima non costante, quindi dipendente dai regressori. Se così non fosse, la funzione sarebbe una retta e il suo codominio diventerebbe . Si supponga infatti il seguente modello lineare:
dove la derivata
è costante e uguale al parametro . In base al segno di questo parametro, la funzione sarà crescente, se positivo, o decrescente se negativo, ma non è possibile avere come codominio perché questo richiederebbe una derivata dipendente dal valore di . Se si considera invece il seguente modello:
dove la derivata
è dipendente anche dalla variabile , è possibile, al variare di , far variare la pendenza della curva, limitando questa al codominio dato.
Per il modello probit si utilizza come funzione la funzione di ripartizione della distribuzione normale standard, ossia l'inversa della funzione probit.[1]
Definizione
Il modello di regressione probit per la popolazione è:[1]
è la funzione di ripartizione della distribuzione normale standard.
Varianza
La varianza della variabile dipendente risulta dipendere dal vettore dei regressori . Infatti
.
Effetto marginale
L'effetto sulla variabile dipendente dato da un cambiamento in un regressore , chiamato effetto marginale, è calcolato come la derivata del valore atteso di rispetto a :
Per ogni osservazione campionaria si dispone di una determinazione e di determinazioni . Il modello cerca una relazione non lineare, utilizzando la funzione di ripartizione della distribuzione normale standard, tra la variabile dipendente e variabili indipendenti, stimando il valore dei coefficienti tramite il metodo della massima verosimiglianza.[1]
Nel modello probit la variabile dipendente è dicotomica e con distribuzione . Si consideri un campione di osservazioni dove ciascuna di esse è identificata con . Per la definizione del modello, la probabilità che questa variabile sia 1 per una data osservazione è
Si considera ora l'intero campione e sia assume che per ogni osservazione , siano indipendenti e identicamente distribuite. Risulta quindi che la distribuzione di probabilità congiunta di è il prodotto delle probabilità condizionate di ogni osservazione:
.
Si riprende ora la definizione del modello probit e la si sostituisce al posto di , ottenendo quindi la funzione di verosimiglianza[4]
.
Metodo della massima verosimiglianza
Per calcolare gli stimatori dei parametri risulta conveniente calcolare la funzione di log-verosimiglianza poiché in questo modo si riesce a eliminare la produttoria. Si applica quindi il logaritmo alla funzione di verosimiglianza:
.
Gli stimatori calcolati con il metodo della massima verosimiglianza massimizzano la funzione precedente risolvendo il seguente problema:
Per semplificare la scrittura consideriamo un vettore dei parametri , la derivata di , ossia la funzione di densità di probabilità della distribuzione normale standard, e il numero di osservazioni nel campione. Le condizioni per la massimizzazione sono due: quella di primo ordine dove la derivata prima rispetto ai parametri deve essere posta uguale a zero per trovare i punti estremanti, la seconda invece pone la derivata seconda, sempre rispetto ai parametri, minore di zero per determinare le concavità della funzione.
Solitamente le soluzioni di queste condizioni non sono semplici da determinare oppure non possono essere trovate affatto, ma per ovviare a questo problema si possono utilizzare dei programmi statistici per computer che, attraverso alcuni algoritmi, trovano delle loro approssimazioni.[5]
^L'intera derivazione della funzione di verosimiglianza è consultabile alle pagine qui riportate. (EN) James H. Stock e Mark W. Watson, Regression with a Binary Dependent Variable, in Introduction to Econometrics, 3ª ed., Pearson, 2015, pp. 465-466, ISBN978-1-292-07131-2.