首页 > 机器人资讯 > 不止Googlevs.Nvidia:深度学习引领AI芯片大战

不止Googlevs.Nvidia:深度学习引领AI芯片大战

日期:2019-03-06   人气:  来源:互联网
简介:不止Googlevs.Nvidia:深度学习引领AI芯片大战 AI前线导读:2017年,AI芯片是半导体产业的亮点,而它受到的关注又远远超出半导体的圈子。这一年,从科技巨头到初创公司,新老角色轮番登场,为我们上演了精彩好戏。若干年后,当我们再回头来看,一定可以把2……

不止Googlevs.Nvidia:深度学习引领AI芯片大战

AI前线导读:2017年,AI芯片是半导体产业的亮点,而它受到的关注又远远超出半导体的圈子。这一年,从科技巨头到初创公司,新老角色轮番登场,为我们上演了精彩好戏。若干年后,当我们再回头来看,一定可以把2017年作为AI芯片元年。

GoolevsNvidia巨头之间的错位战争

四月初,Google公布了一篇即将在ISCA2017上发表的论文:In-DatacenterPerformanceAnalysisofaTensorProcessingUnit。可以说正是这件小事,揭开了一部年度大戏的序幕,而它产生的深远影响甚至可能会持续到很多年之后。其实,在2016年6月的时候Google就透露了自己研发了一款在云端使用的专用AI芯片,TPU(TensorProcessingUnit)。Google做AI芯片当然是吸引眼球的新闻,但苦于一直没有公布细节,大家也只能猜测和等待。因此,这篇普通的学术论文,得到了媒体的极大关注。我也在第一时间写了一篇评论文章:GoogleTPU揭秘,也是我的公众号阅读量最大的文章之一。对TPU高度关注的当然不只我们这些吃瓜群众,还有AI芯片领域绝对的统治者Nvidia。后面就发生了黄教主和Google间关于TPU的Benchmark结果是否合理的口水战。而早在2016年Google透露TPU的时候,Nvidia就多次表示它对GPU在AI运算上的统治地位没有什么威胁。

5月11日,www.zr-kuka.com,NvidiaGTC2017大会,黄教主在Keynote上抛出了最新的GPUVolta(GV100)。Nvidia股票应声大涨,媒体也是大肆报道。AI芯片的焦点似乎又回到了Nvidia这一边。

除了公布了重量级的Volta,GTC上还有一个小事件,Nvidia宣布开源它的DeepLearningAccelerator(DLA),9月正式公开。这个发布,在黄教主的Keynote中是一句话带过,但在业界引起的震动却一点也不小。Nvidia为什么要搞开源?会开源什么东西?这个开源会不会影响众多初创公司的前景?对这些问题的讨论一直延续到NVDLA真正开源之后。

没过多久,5月17日,在GoogleI/O大会上,Google公布了第二代TPU,用媒体的话说stoleNvidia’srecentVoltaGPUthunder。虽然TPU2的细节公布的并不多,但指标确实看起来很不错,而且具有非常好的可扩展性。唯一的遗憾就是它并不对外销售,只能以TPUCloud的方式供大家使用。

9月下旬,JeffDean这位Google的软件大神参加了HotChip这个芯片界的重要会议,并在KeynoteRecentAdvancesinArtificialIntelligenceviaMachineLearningandtheImplicationsforComputerSystemDesign也亲自介绍了TPU和TPU2的情况,把它们作为新的计算生态中重要的一环。

9月底,NVDLA在承诺的最后期限之前开源了NVDLA的部分硬件代码,同时公布了未来开源更多硬件和软件的路线图。这之后,大家对NVDLA也做了各种分析和讨论,试图把它玩起来。从目前来看,NVDLA的开源好像并没有影响众多初创公司的融资。这个话题我们后面再说。至于Nvidia开源DLA的原因,官方的说法是让更多人可以更容易的实现Inference,促进AI的推广,特别是在众多嵌入式设备上的应用。但从整个开源的过程来看,这个开源的决定似乎是比较仓促的。DLA来自Nvidia自动驾驶SoC中的一个module,最初并不是以开源IP为目的而设计的。而且9月的开源也只公开了一部分硬件代码和相应的验证环境,离真正能用起来也还是有较大差距。我们不好判断这个开源的决定是否和GoogleTPU(在Inference上有比较大的优势)的强势亮相有关系。但基本的推测是,在DeepLearning中Nvidia的核心利益应该在于Training(目前GPU还是training的最好平台)。让Inference门槛更低,渗透到更多应用,特别是Edge端,从而进一步促进Training的需求,应该是符合它的最大利益的。而且NVDLA的软件环境还是使用Nvidia的CUDA/TensorRT,还是由Nvidia掌控的。

这场从一篇论文开始,几乎贯穿了2017年全年的Google和Nvidia的明争暗斗,对业界的影响可能要远远超过这两家公司本身。我之所以把它称为错位的战争,是因为它发生在Google这样的传统的软件巨头和Nvidia这样的芯片巨头之间。如果换成IntelvsNvidia,似乎是再正常不过的。Google的参战,也许是开启了新的时代。我们可以看到,不仅是TPU,Google在10月又公布了他们在GooglePixel2手机中使用的定制SoCIPU(ImageProcessingUnit)。和Apple越来越多的自己定制芯片一样,Google这样的科技巨头同样有应用(明确知道自己要什么),技术(对相关技术的多年积累),资源(不缺钱,不缺人)上的优势,定制自己的硬件,甚至芯片会变得常态化。同时我们也看到,GoogleTPU的示范效应已经显现,更多的科技巨头加入AI加速硬件的竞争。Tesla宣布自己定制自动驾驶芯片;Amazon,Microsoft,以及国内的BAT,华为都在Cloud中提供专门的FPGA加速的支持;据称BigFive中还有在自己开发芯片的;BAT也都在组建芯片设计的团队,等等。虽然大家具体的架构和实现方式不同,但都反映出对AI专用硬件的极大兴趣。相信未来这一趋势会越来越明显。

同时,传统的芯片巨头当然不会坐视这个巨大的市场被Nvidia主宰或者被Google们瓜分。Intel连续收购了Nervana(云),Movidius(端),Mobileye(自动驾驶),Altera(FPGA),又把AMD的RajaKudori(GPU)招至帐下,甚至还搞了Loihi(nueromorphic),可以说拿了一手好牌;虽然动作没有大家想象的那么快,但后面的发力还是值得期待的。AMD也在努力追赶,毕竟他们的CPU+GPU有自己绝活,而整个公司也已经逐渐走出了低谷。而且,不管Tesla和AMD合作自动驾驶芯片的消息到底是真是假,芯片公司这种输出芯片设计能力的模式也是一种不错(或者无奈)的选择。

以DeepLearning为代表的新型计算模式将引领未来芯片的发展方向,这一观点基本已经是大家的一个共识。越来越多的玩家会关注能够支持新型计算的芯片,其中很多可能之前完全不在半导体这个圈子,也完全不了解芯片是怎么回事。2017年我们不时能看到一些对比CPU,GPU,FPGA和ASIC架构的科普文章,甚至有10W+的阅读量,不难看出大家的热情。

初创公司长长的list

2017的AI芯片大戏中,主角不仅是巨头,初创公司也都粉墨登场,戏份一点儿都不逊色。更重要的,在初创公司的表演中,中国公司不仅毫不怯场,而且非常出彩。我从8月份开始在github上维护一个AI芯片的列表,既包括大公司的产品,又包括初创公司的情况。到12月,这个列表中的信息越来越多,世界范围内的初创公司有30多家。而且这个列表还只包含了公开信息,还有很多公司处在stealth状态并没有收录。我也听到一个说法,在AI芯片领域的初创公司可能超过了100家,在TSMC排队投片也有30家。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。