因果推断深度学习工具箱 - Causal Effect Inference with Deep Latent-Variable Models

文章名称

Causal Effect Inference with Deep Latent-Variable Models

核心要点

今天介绍一篇基于生成模型的因果推断的文章,文章仍然关注binary treatment(尽管可是扩展到multiple treatment)下的CATE场景。作者采用VAE从noisy proxies里学习完整的confounder的隐向量表示。

方法细节

问题引入

通常情况下,观察数据分析的因果推断模型都假设尽可能的控制所有的confounder,但在真实世界里,其实更多的拿到的是confounder的某种具有噪声或包含其他不确定性影响因素的代理变量(noisy proxies)。我们需要利用这些代理变量学习出confounder的某种表示,并在此基础上,准确的估计causal effect。具体的因果图如下图所示,我们期望观测到所以confounder Z,但实际只观测到noisy proxies X

causal graph with noisy proxies

我们期望能估计CATE,就需要估计各个treatment下的potential outcome。如下图所示,t=1时候的potential outcome是p(y| X, do(t=1))的期望。而p(y| X, do(t=1))所有confounder Z分布下,p(y, Z| X, do(t=1))的积分。通过链式法则以及条件独立性,最终p(y, Z| X, do(t=1))被拆分为观测条件概率的积分。只要我们能够从(X, t, y)中恢复(X, Z, t, y)的联合分布,就可以得到p(y|Z, X, t=1)p(Z| X),进而识别causal effect。
identification proof

具体做法

作者通过构建VAE来从(X, t, y)中恢复(X, Z, t, y)的联合分布。
(具体怎么做... 明天再说...)

代码实现

(留坑待填...)

心得体会

deep generative model

因为missing counterfactual的问题,causal inference 可以被看做是missing data的问题。而生成相似样本正是生成模型的强项。同时,生成模型能够有效的学习隐变量表示,更好的做disentangle。比如,VAE,AAE等模型。个人认为,生成模型可以扩展出更多有趣的方法。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容