Nel mio articoli precedentiabbiamo appreso dell’esistenza di fattori confondenti e collisori nei dati osservativi che ostacolano la creazione di relazioni causali affidabili. La soluzione fornita da Pearl è quella di disegnare diagrammi causali e utilizzarli il criterio della backdoor per trovare gli insiemi di fattori di confusione da bloccare e lasciare con sé i collisori e i mediatori.
Tuttavia, quando si ha a che fare con variabili confondenti che non possono essere osservate o misurate, diventa difficile stimare la causalità dai dati osservativi. Affrontando questo problema, nel capitolo 7 di “Il libro dei perché”, Judea Pearl ha introdotto il regole del calcolo. Queste regole sono particolarmente utili per il criterio della porta d’ingresso E variabili strumentali. Possono essere utilizzati per stabilire la causalità anche quando sono presenti variabili confondenti non osservabili.
Nel capitolo 8 esploreremo il fantastico mondo di controfattuali. Apertura con i famosi versi del poeta Robert Frost:
“E mi dispiace non aver potuto viaggiare entrambi
E sii un viaggiatore, a lungo rimasi in piedi…”
Perla afferma che, sebbene sia impossibile percorrere entrambi i sentieri o bagnarsi due volte negli stessi fiumi, il nostro cervello può immaginare cosa sarebbe successo se avessimo preso l’altro percorso. Per specificare e trasmettere la saggezza ai robot, Pearl introduce le distinzioni tra causa necessaria E causa sufficiente e come utilizzare Modelli causali strutturali condurre sistematicamente analisi controfattuali.
Man mano che si supera il punto centrale, i capitoli diventano più tecnici e ricchi di informazioni. Nella sezione seguente, discuterò innanzitutto come gestire i fattori confondenti non osservati, purtroppo, con un po’ di matematica, per gli interventi del ramo 2. Quindi, discuterò dei controfattuali, un’applicazione del gradino 3.
Il criterio della porta d’ingresso
A partire da un diagramma causale che utilizziamo per comprendere l’impatto causale di X su Y:
Fonte: towardsdatascience.com