Lecture Notes on Causal Inference
之前已经讲过 random experience 的原理和背景,这里尝试从不同的角度去解释该方法的神奇之处。在 random experience 中,对比的两组除了treatment,其它均相同。
在介绍frontdoor之前,首先回顾一下backdoor。backdoor path是说因果图中非chain的association path,即存在edge由x指向t,同时存在从x到y的路径。此时我们称存在backdoor path。backdoor关注的是非因果关系的其它关系。
然而,在平常的观测数据中,存在未知的潜在原因,我们不能用backdoor那一套方法对潜在原因去condition,此时我们可以做的,就是关注因果关系路径上的中间节点,而这也就是 frontdoor 的来源。frontdoor是为了聚焦chain形式的因果关系。举个例子,假设一个因果关系是 T 到 M 到 Y,那么在分析 T 与 Y 的因果关系时,我们就可以利用 frontdoor 来关注中间原因 M。
frontdoor adjustment 总共包含三步,以上述例子为例
Identify the causal effect of T on M
在 T 和 M 之间,不存在backdoor path,因为此时 Y 是未知的,作为collider,切断了未知原因 W 对 M 的影响。此时我们有 \(P(m \vert do(t)) = P(m \vert t)\)
经过这三步,我们就得到了关于 (T, M, Y) 三元组的 frontdoor adjustment。这就引出了下一个问题,在复杂的图中,如何确定 M 呢?于是我们提出 frontdoor criterion。
对于一组变量 M ,确定其满足 frontdoor criterion 需要同时满足三个条件
当 frontdoor 和 backdoor criterion 都无法满足的时候,我们该如何 indentify causal effect呢?此时我们可以用do-calculus。
do-calculus可以indentify任何indentifiable的causal quantity。换句话是,它是完备的(complete)
在介绍do-calculus之前,需要引入一个新的记号。对于一个因果图G,我们用 \(G_{\overline Z}\) 表示将G图中所有指向节点 Z 的边都抹去后剩下的图;同理,我们用 \(G_{\underline{Z}}\) 表示将G图中所有从节点 Z 指出的边都抹去后剩下的图。
do-calculus有三条rule
如果去掉do(t),我们可以发现这条规则是 d-seperation 和条件独立的泛化
如果去掉do(t),我们可以发现这条规则是 backdoor adjustment 的泛化,此时Z没有指出的边,do on z 不会对其他变量产生影响
这里Z(W)表示所有Z中所有不是W父节点的节点集合
如果去掉do(t),我们可以发现在 \(G_{\overline{Z(W)}}\) 中,只有 z->y 可能有因果关系,w被抹除了,其效果和 \(G_{\overline{Z}}\)相同。但 \(G_{\overline{Z}}\)更严格,会有更多的边被抹去,可能会丢失一些association
判断identifiability的充分条件(当原因是单变量时):Unconfounded children criterion
是看我们能否block从 T 到其子节点之间(同时也是Y的祖先节点)的所有backdoor path,该标准比frontdoor criterion更加宽泛
判断identifiability的必要条件:即如果已知identifiability,我们可以block每一条从 T 到其子节点之间(同时也是Y的祖先节点)的backdoor path
充要条件:在因果图中,是hedge criterion (这里需要引入更多的新概念,课程视频中未涉及)