中国最专业的电池行业门户网站-华人电池网 |
高级搜索 标王直达
 
 
当前位置: 首页 » 资讯 » 技术应用 » 正文

人不如机!AI芯片成为了科技巨头们的角斗场

放大字体  缩小字体 发布日期:2017-09-28  浏览次数:362
核心提示:【猎云网(微信号:ilieyun)】9月28日报道(编译:陆一)编者注:本文作者Cade Metz是The New York Times的记者与作家,此前曾
 

【猎云网(微信号:ilieyun)】9月28日报道(编译:陆一)

编者注:本文作者Cade Metz是The New York Times的记者与作家,此前曾在WIRED担任高级编辑。

      在科技快速发展的今天,我们对计算机抱有更多的期待。我们希望它能和我们进行交谈,能识别从人脸到花朵的一切事物,也希望能尽快实现自动驾驶。然而,这些人工智能的实现需要有强大的计算力的支持。要想实现各种新功能,计算机所需的计算力甚至会超过最先进的机器的计算极限。

面对日益升级的需求,大型科技公司想要从生物学中寻找一些启示。他们正在反思计算机的本质,想要研发出一种更像人脑的机器。

计算机的新发展可能会削弱芯片界大佬英特尔的实力,并会从根本上改变年产值高达3350亿美元的半导体产业。半导体产业是当前各种高科技产品的关键所在。

图:微软的Xuedong Huang(左)和Doug Burger(右)都认为公司需要致力于研发专门化芯片

半个世纪以来,计算机制造商都在使用一种单一的、适用于各种情况的芯片。作为全球最大的半导体芯片制造商,英特尔一直以来都是这种芯片的主要生产商。

如今,计算机工程师们正在研发新型芯片。新型机器的运作将会细分为多个小部分,而每一种小分工都需要自己独有的芯片。另外,这种专门化芯片的能耗将大大减少。

谷歌的数据中心的变革预示着该行业的其他公司也将迎来一些变化。谷歌的大部分服务器仍然在使用中央处理器,不过他们也在和一些定制芯片供应商合作。另外,谷歌还在研发可以进行语音识别和其他人工智能应用的算法。

谷歌的变革是出于公司自身发展的需要。多年来,谷歌一直运营着世界上最大的计算机网络。虽然这一数据帝国涉及世界众多地区,但是对于谷歌的研发来说还是不够的。

2011年,谷歌最著名的工程师之一Jeff Dean负责的研究小组,就神经网络进行了一番研究。神经网络的研究有助于实现计算机算法的自我学习。

几个月后,Dean和他的团队建立了一个升级版的口语识别服务,该服务的精确度远远高于当时谷歌所推出的服务。不过,要想实现这一功能,仅靠谷歌当前的数据中心是不够的。

于是,Dean提出谷歌可以为这种人工智能专门打造一款计算机芯片。

数据中心发生的变化正在逐渐蔓延到科技领域的其他部分。在接下来的几年里,像谷歌、苹果和三星这些公司都将推出适用于智能手机的人工智能芯片。微软也正在为增强现实头显设计一款芯片。另外,像谷歌、丰田这些公司还在研发适用于自动驾驶汽车的芯片。

微软:从英特尔的C.P.U.到自己的F.P.G.A.

当今市面上的芯片,有的是用于存储信息,有的是应用于玩具和电视机,还有一些则是安装在各种计算机程序里,比如用于创建全球变暖模型的超级计算机、个人电脑或者智能手机。

穆尔定律(Moore’s Law)指出,因特网上的通信量大约每年要翻一番。该定律是由英特尔的联合创始人Gordon Moore提出的。随着芯片的不断发展,IBM的著名研究人员Robert Dennard又提出了登纳德缩放比例定律(Dennard Scaling)。

到了2010年,人们发现,通信量翻一番实际所需的时间要长于穆尔定律的预测。另外,登纳德缩放比例定律也开始不适用,因为芯片设计者发现,用来制造处理器的物理材料已经达到了极限。也就是说,如果公司想要制造出计算能力更强的芯片,不能再仅靠处理器的升级,而是需要更多的电脑、更多的空间和更多的能耗。

工业界和学术界的研究人员一直在努力发展穆尔定律,探索全新的芯片材料和设计技术。但是,微软的研究员Doug Burger却有着不同的想法,他提出,可以不要依赖于中央处理器的稳定演进,而是把一些负载转移到专门化芯片上。

在2010年圣诞节期间,Burger与微软的其他几位芯片研究人员一起开始探索新的硬件,用以改进微软的搜索引擎Bing。

当时,微软刚刚开始改进Bing的机器学习算法,该算法可以通过分析人们使用服务的方式来改进搜索结果。尽管构建这种算法的要求比建立神经网络的要求要低,但是现有的芯片也还是很难满足它的发展需求。

Burger和他的团队研究了多种方案,最后决定使用现场可编程门阵列(F.P.G.A.)。一直以来,像Windows这样的软件使用的都是英特尔的中央处理器(C.P.U.),并且这些软件是不能对芯片进行重新编程。

不过,有了F.P.G.A.以后,微软的软件就可以对芯片进行编程了。

微软在2015年开始批量安装这种芯片。现在,几乎每一个连接到微软数据中心的新服务器都配有一个这样的可编程芯片。另外,这种芯片对微软的搜索引擎Bing和云计算Azure都大有帮助。

发展神经网络,让电脑学会“倾听”

2016年秋季,和谷歌的工程师Jeff Dean一样,微软的另一支研究团队也建立了一个神经网络,它在进行语音识别时,准确率要比一般人高。

图:图为谷歌最著名的工程师之一Jeff Dean。他曾经提出,公司应该研发一种专门用于人工智能的芯片。如今,这种芯片已经有了,它就是谷歌自己设计的Tensor处理单元(T.P.U.)

黄学东是微软语音识别领域的领军人物。他和自己的团队在训练微软的语音识别服务时,使用的是由Nvidia制造的专门芯片,而不再像以前一样过分依赖于英特尔的芯片。

黄学东表示,这种专门化芯片让他们把原本至少需要5年才能赶上的差距,仅用1年就赶上了。

不过这种芯片也存在一个问题,那就是用这种方法训练神经网络的话,需要进行大量的试验。研究人员必须反复进行训练,并且还要不停地调整算法以及改进训练数据。另外,在任何给定的时间内,这个过程都会出现上百种算法,这就需要强大的计算能力的支持,而仅仅使用标准化芯片的话是不能满足这一需求。

因此,一些领先的互联网公司正在用一种被称为图形处理单元(G.P.U.)的芯片训练神经网络。这种低能耗的芯片主要是由Nvidia制造的,它们原本是用来处理游戏等软件的图像。另外,在神经网络的运算中,G.P.U.的运行速度要比C.P.U.快得多。

NVIDIA的蓬勃发展就是得益于这种芯片的流行。现在,NVIDIA正在为美国的互联网巨头和世界上最大的一些网络公司生产这种芯片,其中一些中国企业的需求尤为庞大。在过去的一年中,NVIDIA的季度收入增长了两倍,已经超过4.09亿美元。

专门化芯片将越来越流行

目前,很多公司在发展自己的神经网络时,主要就是使用G.P.U.,不过它只是这一工程的一部分。一旦神经网络就某个任务进行训练以后,它就需要专门用于执行这一任务。

例如,在进行语音识别算法的训练以后,微软将会把它加入在线服务,用于识别人们对智能手机发出的语音指令。

谷歌已经打造出了自己的专门化芯片,就是上文提到过的T.P.U.;Nvidia正在打造类似的芯片;微软则是让Altera帮忙制造了一款专门化芯片。

其他的公司也紧随其后。比如,专注于为智能手机制造芯片的Qualcomm和一些创企也在研发人工智能芯片。市场研究公司IDC预测,到2021年,配备这类芯片的服务器的总收入将达到68亿美元,约占整个服务器市场的10%。

图:谷歌平台的副总裁Bart Sano认为,专门化芯片对公司的运营仍然不太重要

Burger指出,在微软的全球网络中,这类芯片仍然只是相对较小的一个部分。谷歌平台的副总裁Bart Sano也认为,专门化芯片对公司的运营并不是太重要。

Mike Mayberry是英特尔实验室的负责人,他并不是太重视对专门化芯片的研发。这可能是因为英特尔控制着90%以上的数据中心市场,所以它一直是传统芯片的最大生产商。在Mike Mayberry看来,如果中央处理器进行适当的改进,完全不需要其他芯片的帮助,就能满足当前的需求。

两年前,英特尔花了167亿美元收购了Altera,就是上文提到过的那家为微软研发可编程芯片的公司。这也是英特尔至今为止最大的收购案。去年,英特尔又以4.08亿美元的价格收购了Nervana。现在,英特尔和Nervana的团队合作,共同研发用于训练和运作神经网络的芯片。

硅谷的风投公司Sequoia Capital的合伙人Bill Coughran表示,英特尔需要考虑一下如何在不影响自己的传统业务的情况下,进军新的领域。

目前,英特尔不仅要和Nvidia、Qualcomm这样的芯片制造商竞争,还要和谷歌、微软这样的公司竞争。

谷歌正在设计第二代T.P.U.芯片。公司表示,这种芯片会在今年晚些时候投入使用。

目前这些变化还只是发生于大型数据中心内部,蔓延到其他行业应该就只是时间问题。

本文来自猎云网,如若转载,请注明出处:http://www.lieyunwang.com/archives/368438

 
 
[ 资讯搜索 ]  [ ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
推荐图文
推荐资讯
点击排行
Processed in 0.100 second(s), 17 queries, Memory 1.42 M