美国东部时间3月27日,美国计算机协会(ACM)宣布,深度学习的三位推动者尤舒亚·本吉奥(YoshuaBengio)、杰弗里·辛顿(GeoffreyHinton),和雅恩·乐昆(YannLeCun)因其在神经网络方面的成就赢得了年的图灵奖(A.M.TuringAward)。此次,是自年和年之后,第三次图灵奖同时颁给了3名科学家。
雅恩·乐昆曾为多伦多大学杰弗里·辛顿实验室的博士后研究员,雅恩·乐昆在AT&T贝尔实验室工作时又与尤舒亚·本吉奥成为同事,据《纽约时报》报道,年在加拿大政府的支持下,杰弗里·辛顿组建研究项目,邀请雅恩·乐昆和尤舒亚·本吉奥加入了他的项目组。杰弗里·辛顿曾表示,他们几乎每周都要见一面,而聚会常以吵架结束。在过去数十年间,上述三人既独立研究又相互合作,共同奠定了深度神经网络领域的基础概念。他们克服了计算力和数据量的限制,突破性地研究了反向传播(Backpropagation)、卷积神经网络(CNN)和生成对抗式神经网络(GAN)等。
YoshuaBengio是蒙特利尔大学教授、魁北克人工智能机构Mila的科学主管。他曾与其他专家合著《深度学习》(DeepLearning),这是一本被业内誉为“圣经”的书。他的论文在年平均每天被引用次。
在年代发明的序列的概率模型,该理论将神经网络和概率模型结合,成功用新技术识别手写的支票,而现代深度学习技术中的语音识别也是在此基础上进行扩展。
此外Bengio发表的论文“ANeuralProbabilisticLanguageModel”,使用了高维词向量来表征自然语言。他的团队还引入了注意力机制,让机器翻译获得技术突破,成为深度学习处理序列的重要技术。
GeoffreyHinton是谷歌副总裁、工程研究员,也是VectorInstitute的首席科学顾问、多伦多大学Emeritus荣誉教授。
他最重要的贡献包括反向传播的论文“LearningInternalRepresentationsbyErrorPropagation”,论文提到反向传播能让神经网络发现自己内部的数据表征,这样便可以处理以往无法解决的问题。
其次是年发明的玻尔兹曼机(BoltzmannMachines),以及年对卷积神经网络的改进。Hinton和他的学生AlexKrizhevsky以及IlyaSutskever通过RectifiedLinearNeurons和DropoutRegularization改进了卷积神经网络,并在著名的ImageNet评测中取得了很好的成绩,在计算机视觉领域掀起一场革命。
YannLeCun是纽约大学教授、Facebook副总裁和首席AI科学家。他也被誉为“卷积神经网络之父”。
年代,LeCun发明了机器学习领域的基础技术之卷积神经网络,让深度学习效率更高。YannLeCun在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。如今,卷积神经网络已经成广泛用于计算机视觉、语音识别、语音合成、图片合成、自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等工业应用方向。
LeCun的第二个重要贡献是改进了反向传播算法。他提出了一个早期的反向传播算法backprop,根据变分原理给出了一个简洁的推导,让反向传播算法更快。
他的第三个贡献则是拓展了神经网络的应用范围,他把神经网络变成了一个可以完成大量不同任务的计算模型。他早期引进的一些工作现在已经成为了人工智能的基础概念,例如在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。