深度学习不能做因果推理吗?
前段时间,贝叶斯之父Judea Pearl在采访中就表示,AI 深陷于概率关联的泥潭,而忽视了因果。Pearl 认为研究者应该研究因果(Cause and Effect),这可能是实现真正智能的机器的可能路径。
受到 Judea Pearl 的启发,Ferenc Huszár 发表博客,从观察和干预数据分布(对应监督学习和因果推理)的区别和联系出发,阐述了他对因果推理在机器学习中的意义的看法。他指出因果推理是深度学习的必要补充,而不是作为其对立面,必须在两者中取其一舍其一。在概率关联我们无法知道一个变量对另一个变量是否有可操作的关系,也就是“如果我们做了什么会发生什么”。因果推理正是对此的补充。
压力计和容器压力存在相关关系,但用手拨动压力计并不能改变容器的实际压力,而改变容器压力却可以改变压力计的示数。如上图所示,相对于观察的变量分布,因果模型比观察分布包含更多的细节。模型中的箭头对应于假设的因果关系方向,没有箭头表示变量之间没有直接的因果关系影响。因果图到观察分布的映射是多对一的:几个因果图与同一个联合分布对应。因此,通常不可能仅通过观察数据在不同的因果解释之间作出结论性选择。这里,容器压力指向压力计示数就是两个变量的观察分布的其中一个因果图,而反向关系是不成立的。
实际上,数据驱动(深度学习)和规则推理(因果推理)正是AI研究领域的两个极端。在解决具体问题的时候,两者可以起到互补的作用。
在这一方面,DeepMind也进行了比较广泛的探索,我们这里简单介绍两篇相关的论文。
论文:Relational Deep Reinforcement Learning
论文链接:https://arxiv.org/abs/1806.01830
摘要:在本文中,我们介绍了一种深度强化学习方法,它可以通过结构化感知和关系推理提高常规方法的效率、泛化能力和可解释性。该方法使用自注意力来迭代地推理场景中实体之间的关系并指导 model-free 策略。实验结果表明,在一项名为「方块世界」的导航、规划新任务中,智能体找到了可解释的解决方案,并且在样本复杂性、泛化至比训练期间更复杂场景的能力方面提高了基线水平。在星际争霸 II 学习环境中,智能体在六个小游戏中达到了当前最优水平——在四个游戏中的表现超越了大师级人类玩家。通过考虑架构化归纳偏置,我们的研究为解决深度强化学习中的重要、棘手的问题开辟了新的方向。
关系性强化学习
RRL 背后的核心思想即通过使用一阶(或关系)语言 [8, 9, 17, 18] 表示状态、动作和策略,将强化学习与关系学习或归纳逻辑编程 [16] 结合起来。从命题转向关系表征有利于目标、状态和动作的泛化,并利用早期学习阶段中获得的知识。此外,关系语言还有利于使用背景知识,而背景知识同时也可以通过与学习问题相关的逻辑事实和规则提供。
例如在「方块世界」的游戏中,当指定背景知识时,参与者可以使用述语 above(S, A, B) 表示状态 S 中方块 A 在方块 B 的上面。这种述语可以用于方块 C 和 D 以及其它目标的学习中。表征性语言、背景和假设形成了归纳性偏置,它能引导并限制智能体搜索良好的策略。语言(或声明性)偏置决定了概念的表现方式。
神经网络传统上就与属性-值、命题性以及强化学习方法 [19] 联系在一起。现在,研究者们将 RRL 的核心思想转化为深度 RL 智能体中结构化指定的归纳偏置,他们使用神经网络模型在结构化的情景表征(实体集合)上执行运算,并通过迭代的方式进行关系推理。其中实体对应着图像的局部区域,且智能体将学习注意关键对象并计算他们成对和更高阶的交互。
论文: Relational inductive biases, deep learning, and graph networks
论文地址: https://arxiv.org/pdf/1806.01261.pdf
摘要:人工智能最近经历了一场复兴,在视觉、语言、控制和决策等关键领域取得了重大进展。取得这些进展的部分原因是由于廉价的数据和计算资源,它们符合深度学习的天然优势。然而,在不同压力下发展起来的人类智力,其许多决定性特征对于目前的方法而言仍是触不可及的。特别是,超越经验的泛化能力——人类智力从幼年开始发展的标志——仍然是现代人工智能面临的巨大挑战。
本论文包含部分新研究、部分回顾和部分统一结论。我们认为组合泛化是人工智能实现与人类相似能力的首要任务,而结构化表示和计算是实现这一目标的关键。正如生物学把自然与人工培育相结合,我们摒弃「手动设计特征」与「端到端」学习二选一的错误选择,而是倡导一种利用它们互补优势的方法。我们探索在深度学习架构中使用关系归纳偏置如何有助于学习实体、关系以及构成它们的规则。我们为具有强烈关系归纳偏置的 AI 工具包提出了一个新构造块——图网络(Graph Network),它泛化并扩展了各种对图进行操作的神经网络方法,并为操作结构化知识和产生结构化行为提供了直接的界面。我们讨论图网络如何支持关系推理和组合泛化,为更复杂的、可解释的和灵活的推理模式奠定基础。
图网络
本论文提出的图网络(GN)框架定义了一类对图结构表征进行关系推理的函数。该 GN 框架泛化并扩展了多种图神经网络、MPNN 和 NLNN 方法(Scarselli 等,2009a; Gilmer 等,2017; Wang 等,2018c),并支持从简单的构建模块建立复杂的架构。注意,这里避免了在「图网络」中使用「神经」术语,以反映它可以用函数而不是神经网络来实现,虽然在这里关注的是神经网络实现。
GN 框架的主要计算单元是 GN 模块,这是一个「图到图」的模块,以图为输入,在结构层面上执行计算,并返回一个图作为输出。如 Box3 所示,实体由图节点表征,由边连接,系统级特性由全局属性表征。GN 框架的模块组织强调了可定制性,并能合成可以表达关系归纳偏置的新架构。其关键的设计原则是:灵活的表征;可配置的模块内部结构;以及可组合的多模块框架。
举个例子来比喻 GN 的形式化原则:考虑预测一堆橡胶球在任意引力场中的运动,它们不是互相碰撞,而是通过一个或多个弹簧互相连接。其结构和相互作用对应于 GN 的图表征和计算执行。
Box 3:「图」的定义
参考文献:
- https://www.quantamagazine.org/to-build-truly-intelligent-machines-teach-them-cause-and-effect-20180515/
- http://www.inference.vc/untitled/
深度学习不能做因果推理吗?http://t.jinritoutiao.js.cn/dhLm1m/
转载请注明:徐自远的乱七八糟小站 » 深度学习不能做因果推理吗?