所有文章 > 正文

智库丨人工智能芯片的华裔研究者

作者: 学术玄

时间: 2019-06-11 16:12

人工智能飞速发展,人们就在猜测,当人工智能无法继续按照摩尔定律提升算力时,究竟该如何进一步发展人工智能?就此提出人工智能芯片的含义,而本文将探讨人工智能芯片的华裔研究者分布。

欢迎访问全球华人专家库,了解更多学者信息。

人工智能(Artificial Intelligence,AI)芯片的定义:从广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片,现阶段,这些人工智能算法一般以深度学习算法为主,也可以包括其它机器学习算法。人工智能与深度学习的关系如图所示。

AI芯片的发展历史可以参照人工智能的发展。从图灵的论文《计算机器与智能》和图灵测试,到最初级的神经元模拟单元——感知机,再到现在多达上百层的深度神经网络,人类对人工智能的探索从来就没有停止过。上世纪八十年代,多层神经网络和反向传播算法的出现给人工智能行业点燃了新的火花。反向传播的主要创新在于能将信息输出和目标输出之间的误差通过多层网络往前一级迭代反馈,将最终的输出收敛到某一个目标范围之内。1989 年贝尔实验室成功利用反向传播算法,在多层神经网络开发了一个手写邮编识器。1998 年 Yann LeCun 和 Yoshua Bengio 发表了手写识别神经网络和反向传播优化相关的论文《Gradient-based learning applied to document recognition》,开创了卷积神经网络的时代。此后,人工智能陷入了长时间的发展沉寂阶段,直到 1997年 IBM的深蓝战胜国际象棋大师和 2011 年 IBM的沃森智能系统在 Jeopardy节目中胜出,人工智能才又一次为人们所关注。2016 年 Alpha Go 击败韩国围棋九段职业选手,则标志着人工智能的又一波高潮。从基础算法、底层硬件、工具框架到实际应用场景,现阶段的人工智能领域已经全面开花。作为人工智能核心的底层硬件 AI 芯片,也同样经历了多次的起伏和波折,总体看来,AI 芯片的发展前后经历了四次大的变化,其发展历程如图所示。

(1)2007 年以前,AI 芯片产业一直没有发展成为成熟的产业;同时由于当时算法、数据量等因素,这个阶段 AI 芯片并没有特别强烈的市场需求,通用的 CPU 芯片即可满足

应用需要。

(2)随着高清视频、VR、AR游戏等行业的发展,GPU产品取得快速的突破;同时人们发现 GPU 的并行计算特性恰好适应人工智能算法及大数据并行计算的需求,如 GPU 比

之前传统的 CPU在深度学习算法的运算上可以提高几十倍的效率,因此开始尝试使用 GPU进行人工智能计算。

(3)进入 2010 年后,云计算广泛推广,人工智能的研究人员可以通过云计算借助大量 CPU 和 GPU 进行混合运算,进一步推进了 AI 芯片的深入应用,从而催生了各类 AI 芯

片的研发与应用。

(4)人工智能对于计算能力的要求不断快速地提升,进入 2015 年后,GPU 性能功耗比不高的特点使其在工作适用场合受到多种限制,业界开始研发针对人工智能的专用芯片,

以期通过更好的硬件和芯片架构,在计算效率、能耗比等性能上得到进一步提升。

目前,我国的人工智能芯片行业发展尚处于起步阶段。长期以来,中国在 CPU、GPU、DSP 处理器设计上一直处于追赶地位,绝大部分芯片设计企业依靠国外的 IP 核设计芯片,在自主创新上受到了极大的限制。然而,人工智能的兴起,无疑为中国在处理器领域实现6弯道超车提供了绝佳的机遇。人工智能领域的应用目前还处于面向行业应用阶段,生态上尚未形成垄断,国产处理器厂商与国外竞争对手在人工智能这一全新赛场上处在同一起跑线上,因此,基于新兴技术和应用市场,中国在建立人工智能生态圈方面将大有可为。

由于我国特殊的环境和市场,国内 AI 芯片的发展目前呈现出百花齐放、百家争鸣的态势,AI 芯片的应用领域也遍布股票交易、金融、商品推荐、安防、早教机器人以及无人驾驶等众多领域,催生了大量的人工智能芯片创业公司,如地平线、深鉴科技、中科寒武纪等。尽管如此,国内公司却并未如国外大公司一样形成市场规模,反而出现各自为政的散裂发展现状。除了新兴创业公司,国内研究机构如北京大学、清华大学、中国科学院等在AI 芯片领域都有深入研究;而其他公司如百度和比特大陆等,2017 年也有一些成果发布。

关于AI芯片的分类,不同的分类标准,可以将芯片分为不同的种类,目前主要有以下几种分类方法。

(1)AI 芯片按技术架构分类:GPU(Graphics Processing Unit,图形处理单元),半定制化的 FPGA(Field Programmable GateArray,全
称(现场可编程门阵列),全定制化 ASIC(Application-Specific Integrated Circuit,专用集成电路),神经拟态芯片。

(2)AI 芯片按功能分类:根据机器学习算法步骤,可分为训练(training)和推断(inference)两个环节。

(3)AI 芯片按应用场景分类:主要分为用于服务器端(云端)和用于移动端(终端)两大类。

AMiner团队对各类AI芯片进行细致的分析,总结出以下几个特点。

  • CPU通用性最强,但延迟严重,散热高,效率最低。
  • GPU 通用性强、速度快、效率高,特别适合用在深度学习训练方面,但是性能功耗比较低。
  • FPGA 具有低能耗、高性能以及可编程等特性,相对于 CPU与 GPU 有明显的性能或者能耗优势,但对使用者要求高。
  • ASIC 可以更有针对性地进行硬件层次的优化,从而获得更好的性能、功耗比。但是ASIC 芯片的设计和制造需要大量的资金、较长的研发周期和工程周期,而且深度学习算法仍在快速发展,若深度学习算法发生大的变化,FPGA 能很快改变架构,适应最新的变化,ASIC 类芯片一旦定制则难于进行修改。

当前阶段,GPU 配合 CPU 仍然是 AI 芯片的主流,而后随着视觉、语音、深度学习的算法在 FPGA以及 ASIC芯片上的不断优化,此两者也将逐步占有更多的市场份额,从而与GPU达成长期共存的局面。从长远看,人工智能类脑神经芯片是发展的路径和方向。

人工智能芯片技术领域的国内代表性企业包括中科寒武纪、中星微、地平线机器人、深鉴科技、灵汐科技、启英泰伦、百度、华为等,国外包括英伟达、AMD、Google、高通、Nervana Systems、Movidius、IBM、ARM、CEVA、MIT/Eyeriss、苹果、三星等。

通过统计分析 AMiner 的人工智能芯片人才库,我们得到了全球人工智能芯片领域学者分布图,如图 13 所示。从图中可以看到,人工智能芯片领域的学者主要分布在北美洲,其次是欧洲。中国对人工智能芯片的研究紧跟其后,南美洲、非洲和大洋洲人才相对比较匮乏。

按国家进行统计来看美国是人工智能芯片领域科技发展的核心。英国的人数紧排在美国之后。其他的专家主要分布在中国、德国、加拿大、意大利和日本,如图所示。

人工智能新芯片的代表人物中,外籍的专家首推Jeff Dean,在全球华人专家库中的美国工程院院士智库,智库中共收录2154人,统计为美国及全球作出突出贡献的人群。Jeff Dean 是谷 歌 大 脑(Google Brain)、谷歌机器学习开源框架TensorFlow、谷歌广告系统、谷歌搜索系统等技术的重要创始人之一。下图是智库中Jeff Dean的基本信息。

美籍华人学者黄仁勋1993 年创办 NVIDIA(全球最大显卡芯片厂商之一),是人工智能芯片领域华人的代表人物,此外,还有谢源、陈天石、施路平、余凯等学者。

以下是谢源的介绍。谢源是加州大学圣芭芭拉分校教授。发表了近 300 篇研究论文,获得多个国际会议的最佳论文奖,以及 NSF CAREER award,中国国家自然科学基金会海外及港澳学者合作研究基金等。2014 年获得 IEEE Fellow 的荣誉。谢源的专家画像可以在全球华人专家库中的IEEE Fellow智库中看到,他的论文引用量高达11868次,论文数量及G指数都较高。

更多学者了解,欢迎访问全球华人专家库

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

推荐阅读 更多