APSys 2014于 6月25日-26日在北京隆重召开,和人工智能的国际顶会ICML同期举行,来自全球各地的学者聚集在次,会议开设了专门针对人工智能设计的系统,解决Big Data+人工智能为系统设计带来的挑战问题。AMD研究院DNN研究项目专家,谷俊丽博士在APSys 2014上发表《基于主流异构处理器的DNN实现与评估》的论文并做大会报告,内容主要针对主流的机器学习算法,围绕如何创建高效的DNN异构平台以及OCL的实现技巧作出深入探讨。
AMD在DNN研究上的新突破
“性能制约”是早期商用语音识别系统中无法采用人工神经网络技术实现的原因之一。在APsys学术上,AMD DNN深度探讨了基于多个异构平台包括APU/CPU+GPUs方面的研究,以最大限度利用计算机的运算能力。经研究表明,APUs能够实现高达2X单位瓦特性能,能效超过已有的CPU+GPU平台。这足以说明,APU服务器可以为DNN应用提供更加高效和高密度的解决方案。
值得庆幸的是,AMD在APSys发表的这篇论文――机器学习系统得到了业界的一致好评,该论文也是最受欢迎的作品之一。以下是APSys上的资深专家给予的高度评论:
深度学习带来了机器学习的一个新浪潮,受到从学术界到工业界的广泛重视,也导致了“大数据+深度模型”时代的来临,未来越来越多的识别都将依赖于深度神经网络。
DNN背景介绍
早在20世纪50年代就出现了人工神经网络,它是一个有很悠久历史的结构,但经过了很多年的发展,依然有很多的局限,比如训练时间长、效率低下等。近年来由于Deep Learning的研究出现了比较大的突破,Deep Neural Network(以下简称DNN)应该是伴随着Deep Learning一起出现的一种人工神经网络的重大改良,其模拟了人脑的一些特性,比如人脑具有一个深度的结构,每深入一层就进行一次抽象,认知的时候逐层进行抽象,进而突破了传统的神经网络算法的局限性,可以说,DNN的出现为语音/图像/人脸等大规模物体的识别技术带来了一次新突破。
众多知名企业参与探讨DNN
2012年《纽约时报》就曾披露了Google Brain项目,吸引了公众的广泛关注。该项目是由著名的斯坦福大学机器学习教授Andrew Ng和在大规模计算机系统方面的世界顶尖专家Jeff Dean共同主导,用16000个CPU Core的并行计算平台训练一种称为“深层神经网络”(DNN,Deep Neural Networks)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功。
据悉,Google(DNN)是最早突破深层神经网络工业化应用的企业之一。如今,越来越多的企业开始参与到DNN的研究中,这其中也包括AMD、微软亚洲研究院以及上海交通大学均在APsys上发表了学术论文(APsys是亚太地区系统领域专家组织的专门从事论文研究的学术会议,发展至今已成功举办多次)。