厘清因果逻辑后的机器学习可以脱胎换骨吗

机器学习的难关——因果分析。

人类与机器学习的一大不同即人类理解因果逻辑容易,机器学习理解因果却难如登天。机器学习算法,尤其是深度神经网络,擅长从大量数据中找出微妙的模式,但它们很难做出简单的因果推论,主要涉及的难题是独立和恒等分布数据(i.i.d)

来看看厘清因果关系对机器学习有哪些好处、研究人员们提出了哪些有望克服这一难题的方法吧。

当看到一个棒球运动员击球时,你可以推断出不同元素之间的因果关系。例如,虽然球棒和运动员的手臂同步移动,但你清楚之间的因果关系是手臂带动了球棒的移动而非相反。同样,球的方向的突然改变是由球棒带来的,这也是简单明了的因果逻辑。你可能还会再进一步反向思考,比如球飞得高一点没有打到球棒上会发生什么。

这些推论是我们人类的直觉,不需要明确的指导,通过观察就可以理解认知是我们在很小的时候就学会的技能。但对于在围棋、国际象棋等复杂任务中成功超越人类的机器学习算法来说,因果关系仍然是一个挑战。

机器学习算法,尤其是深度神经网络,擅长从大量数据中找出微妙的模式。它们可以实时转录音频,标记每秒数千张图像和视频帧,并检查X射线和核磁共振扫描的癌症模式。但他们很难做出简单的因果推论,就像我们在上面谈到的棒球例子中那样。

在一篇题为“TowardsCausalRepresentationLearning”的论文中,马克斯普朗克研究所、蒙特利尔研究所学习算法(米拉)和谷歌的研究人员认为对于机器学习因果推论的挑战源自于机器学习模型缺乏因果关系的表达,在论文中他们为可以学习因果表达的人工智能系统提示了方向。论文入口:



转载请注明地址:http://www.jiaosx.com/jans/7485.html
  • 上一篇文章:
  • 下一篇文章:
  • 热点文章

    • 没有热点文章

    推荐文章

    • 没有推荐文章