当前位置: X-MOL 学术Nat. Mach. Intell. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Causal inference and counterfactual prediction in machine learning for actionable healthcare
Nature Machine Intelligence ( IF 23.8 ) Pub Date : 2020-07-13 , DOI: 10.1038/s42256-020-0197-y
Mattia Prosperi , Yi Guo , Matt Sperrin , James S. Koopman , Jae S. Min , Xing He , Shannan Rich , Mo Wang , Iain E. Buchan , Jiang Bian

Big data, high-performance computing, and (deep) machine learning are increasingly becoming key to precision medicine—from identifying disease risks and taking preventive measures, to making diagnoses and personalizing treatment for individuals. Precision medicine, however, is not only about predicting risks and outcomes, but also about weighing interventions. Interventional clinical predictive models require the correct specification of cause and effect, and the calculation of so-called counterfactuals, that is, alternative scenarios. In biomedical research, observational studies are commonly affected by confounding and selection bias. Without robust assumptions, often requiring a priori domain knowledge, causal inference is not feasible. Data-driven prediction models are often mistakenly used to draw causal effects, but neither their parameters nor their predictions necessarily have a causal interpretation. Therefore, the premise that data-driven prediction models lead to trustable decisions/interventions for precision medicine is questionable. When pursuing intervention modelling, the bio-health informatics community needs to employ causal approaches and learn causal structures. Here we discuss how target trials (algorithmic emulation of randomized studies), transportability (the licence to transfer causal effects from one population to another) and prediction invariance (where a true causal model is contained in the set of all prediction models whose accuracy does not vary across different settings) are linchpins to developing and testing intervention models.



中文翻译:

机器学习中的因果推理和反事实预测,可用于可行的医疗保健

大数据,高性能计算和(深度)机器学习正日益成为精密医学的关键-从识别疾病风险和采取预防措施,到对个人进行诊断和个性化治疗。然而,精密医学不仅涉及预测风险和结果,还涉及权衡干预措施。介入性临床预测模型需要正确的因果规范,并需要计算所谓的反事实,即替代方案。在生物医学研究中,观察性研究通常受混杂和选择偏见的影响。如果没有可靠的假设(通常需要先验领域知识),则因果推断是不可行的。数据驱动的预测模型通常被错误地用来描绘因果关系,但它们的参数或预测都不一定具有因果关系。因此,以数据为依据的预测模型导致对精确医学可靠的决策/干预的前提值得怀疑。在进行干预建模时,生物健康信息学界需要采用因果方法并学习因果结构。在这里,我们讨论了目标试验(随机研究的算法模拟),可运输性(将因果效应从一个人群转移到另一个人群的许可)和预测不变性(所有预测模型的集合中都包含真实的因果模型,其准确性不在不同的设置中有所不同)是开发和测试干预模型的关键。数据驱动的预测模型导致对精确医学可靠的决策/干预的前提是可疑的。在进行干预建模时,生物健康信息学界需要采用因果方法并学习因果结构。在这里,我们讨论了目标试验(随机研究的算法模拟),可运输性(将因果效应从一个人群转移到另一人群的许可)和预测不变性(所有预测模型的集合中均包含真实因果模型)在不同的设置中有所不同)是开发和测试干预模型的关键。数据驱动的预测模型导致对精确医学可靠的决策/干预的前提是可疑的。在进行干预建模时,生物健康信息学界需要采用因果方法并学习因果结构。在这里,我们讨论了目标试验(随机研究的算法模拟),可运输性(将因果效应从一个人群转移到另一人群的许可)和预测不变性(所有预测模型的集合中均包含真实因果模型)在不同的设置中有所不同)是开发和测试干预模型的关键。生物健康信息学界需要采用因果方法并学习因果结构。在这里,我们讨论了目标试验(随机研究的算法模拟),可运输性(将因果效应从一个人群转移到另一人群的许可)和预测不变性(所有预测模型的集合中均包含真实因果模型)在不同的设置中有所不同)是开发和测试干预模型的关键。生物健康信息学界需要采用因果方法并学习因果结构。在这里,我们讨论了目标试验(随机研究的算法模拟),可运输性(将因果效应从一个人群转移到另一人群的许可)和预测不变性(所有预测模型的集合中均包含真实因果模型)在不同的设置中有所不同)是开发和测试干预模型的关键。

更新日期:2020-07-13
down
wechat
bug