Segui il canale Telegram
Max 3 mess. al giorno (cos'è?)
Ultimi post del blog
Video e tutorial
Pagine aggiornate
Formazione
Ricerca sociale con R (il libro)
Gli Information Criteria (AIC, BIC) servono a valutare la goodness of fitness di un modello, hanno un valore comparativo e non sono normalizzati. Di due modelli, sarà da preferire — nel caso si utilizzino questi criteri — quello con i valori più bassi.
Osserviamo la tabella delle statistiche del modello in Modelli lineari generalizzati (usando una funzione del pacchetto Broom:
library(broom) glance(glm.res)
## # A tibble: 1 x 7 ## null.deviance df.null logLik AIC BIC deviance df.residual ## <dbl> <int> <dbl> <dbl> <dbl> <dbl> <int> ## 1 32539. 49 -207. 419. 425. 11354. 48
I primi due valori — `null.deviance` e `df.null` — si riferiscono al modello zero (nessuna variabile indipendente): sono quindi la devianza totale (di dist) e i gradi di libertà (i casi meno la media, quindi 49).
`deviance` e `df.residuals` sono la devianza e i gradi di libertà (i casi meno le variabili, pari a 48) del modello con un regressore, cioè il nostro modello.
Le altre statistiche sono quelle che ci interessano per valutare la goodness of fitness del modello, ovvero per valutare se otteniamo un miglioramento nella spiegazione della variabile dist
, introducendo una variabile esplicativa. Per questa ragione, nel summary dei risultati, al posto dell'$R^2$ viene riportato l'AIC — Akaike Information Criterion.
La tabella che segue mostra le relazioni fra queste misure.
`logLik()` | somma delle log-p dei valori osservati | divergenza (dalla distribuzione di massima verosimiglianza)1) |
`AIC()` | Akaike Information Criterion2): `(-2 * logLik) + 2k` | k = numero dei coefficienti + 1 (residui) |
`BIC()` | Bayesian Information Criterion3): `AIC * log(n)` |