科技云报道:
在过去三年人工智能的浪潮推动下,电脑显卡芯片制造商Nvidia股票市值从2015年200多亿美元,飙涨至如今1200多亿美元,期间涨幅高达6倍,使其一跃成为当下科技行业最受追捧的公司之一。Nvidia如今疯狂飙升的市值,没有人不对AI芯片在商业领域展现出的想象空间垂涎欲滴。”
2017年第三季Nvidia的GPU销量环比增长29.53%,约占GPU芯片市场70%的份额。
Jefferies股票分析师Markeries Lipacis在给客户的说明中写道:“IBM在20世纪50年代主导了大型计算机,数字设备公司(Digital Equipment Corp.)在20世纪60年代中期向小型计算机转型,微软和英特尔在个人电脑市场逐渐兴起,苹果和谷歌让智能手机变得无处不在。我们相信,下一次的结构性转变正在发生,而Nvidia将从中受益。”
Nvidia在芯片领域的霸主地位不仅让过去三十年高度竞争的两家公司——Intel和AMD开始联手抵抗,更成为中国人工智能发展的“狙击”目标。
在国务院今年7月下发的《新一代人工智能发展规划》中明确阐述,到2030年,中国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础。
10月,科技部印发《关于发布国家重点研发计划变革性技术关键科学问题重点专项2017年度项目申报指南》,其中包含十三个重点项目,“研制能处理大规模 神经网络(包含一亿神经元和十亿突触)的 神经网络处理器样片”作为其中之一将Nvidia作为竞品进行对标,并将实测能效和性能超过Nvidia图形处理单元(Nvidia GPU)产品M40的20倍作为考核指标予以标示。
此举已显示出中国在向高端制造业转型的过程中,将以举国之力向人工智能、芯片等领域发起挑战。
国产芯片自给率不足30%
芯片话语权被Nvidia牢牢掌握
数据显示,2016年全球芯片市场达到3397亿美元,同比增长1.5%,而2017年则超过4000亿美元,涨幅高达10%以上。
但令人窘迫的是,在如此巨大的蛋糕面前,尽管中国已消化了近1/3的市场需求而成为全球最大的芯片消费国,但繁荣背后却有一个残酷的事实:国产芯片的自给率不到30%,产值不足全球的7%,市场份额更是不到10%,也就是说中国芯片90%以上依赖进口。
截至2016年底,中国芯片的进口金额达到1.3万亿人民币左右,而同期的原油进口不到0.7万亿。中国在芯片进口上的花费已经接近原油的两倍。
在芯片产业中,流片费用动辄几百万元甚至上千万元,这样的费用对任何一家公司来说都是难以企及的高价。
一般来说,普通芯片最多半年流片一次,而高端芯片如10nm或像麒麟970这类AI芯片,由于研发过程漫长,从研发到流片需要数年时间。因此,国内很多芯片设计公司为提高成功率,纷纷选择去国外或合资企业流片。
英特尔、富士通、Tower Jazz、GlobalFoundries、三星、台积电、MagnaChip等,往往是业内首选。尽管近年来有紫光、中芯国际等重点企业异军突起,但无论从工艺还是经验来看,距离国际一线厂商还有很长的路要走,更不用说那些具备 学习功能和算法的AI芯片。
纵观全球芯片产业格局,话语权仍牢牢掌握在Nvidia的手中。今年,Nvidia新推出的Volta GPU被阿里巴巴、百度、腾讯等众多互联网公司用于面向企业和消费者的AI应用,华为、浪潮、联想也都使用Nvidia Volta HGX架构为数据中心构建AI系统,戴尔EMC、惠普、IBM和Supermicro则推出了基于Tesla V100 GPU的服务器。
而Nvidia的TensorRT 3.0人工智能推理加速平台,也带来了一大批数据中心客户,有包括亚马逊、微软、Facebook、谷歌、百度、阿里巴巴、京东、讯飞、海康威视、腾讯在内的全球1200余家企业用户。可以说,中国企业为Nvidia贡献了超过七成的利润收入。
摆脱芯片“依赖症”
ASIC芯片或是撬动产业的“支点”
虽然目前 学习芯片市场是由Nvidia主导,但GPU在人工智能领域的表现并不是非常理想。终端市场中的各种垂直场景,包比如手机、智能家居、安防、自动驾驶等领域,都存在AI芯片创业公司成功切入的机会。
8月,中国AI芯片创业公司寒武纪科技(Cambricon Technologies Corp Ltd.,)获得来自于由联想创投、阿里巴巴创投、国投创业、国科投资、中科图灵、元禾原点、涌铧联合投资的1亿美元A轮融资。
其在去年推出了一款名为1A处理器的商用 学习专用处理器NPU(神经网络处理器),今年更是推出1H8处理器,主要面向场景视觉的应用;1M处理器,则主要面向智能驾驶领域。
目前的AI应用主要分为用于服务器端和用于移动终端两大类。现有的主流服务器端的硬件加速器以图形处理器(Graphics Processing Unit,GPU)和现场可编程逻辑门阵列(Field Programmable Gate Array,FPGA)为主。
GPU具有强大的浮点运算能力,因此除图像处理的本职工作外,被广泛应用于科学计算、密码破解、数值分析,海量数据处理等需要大规模并行计算的领域。然而从芯片底层架构来讲,GPU并非专为 学习设计的专业芯片,因此未必是人工智能加速硬件的最终答案。
与GPU相比,FPGA虽然在计算运行速度上与ASIC芯片有所差距(大约是GPU的一半,是同代ASIC的1/10),产品更新换代的速度也要慢于GPU芯片(GPU一般是一年到一年半更新换代,而FPGA是两到三年),但是功耗仅仅是GPU的1/10,并且还可以通过重配置对目标应用进行最大限度的优化。
除了FPGA和GPU之外,也有不少公司在做服务器端的 学习加速芯片,例如Google的TPU、Intel的Nervana System以及Wave Computing等。
假如把FPGA比作科研研发专用芯片,那么ASIC就是确定应用市场后,大量生产的专用芯片。基于此,厂家可以针对特定用户场景使用FPGA进行研发,当算法成熟、芯片设计固定后可以以ASIC的方式进行大规模生产。因此,作为全定制设计的ASIC芯片,针对适用的应用场景,ASIC的性能和能耗都要优于市场上的现有芯片,包括FPGA和GPU。
目前,人工智能ASIC的发展仍处于早期。其根本原因是,ASIC一旦设计制造完成后电路就固定了,只能微调无法大改。而硬件的研发设计与生产成本很高,如果应用场景是否为真市场尚不清晰,企业很难贸然尝试。
此外,能设计出适用于人工智能芯片的公司必然是要既具备人工智能算法又擅长芯片研发的公司,进入门槛较高。相比海外,中国具有更广泛的应用场景和广阔的试水空间,中国厂商也更擅长在商业应用领域施展拳脚,ASIC芯片则可借此成为中国撬动芯片产业的“支点”。
不可否认,Nvidia凭借在GPU芯片领域的先发优势,其领导者地位将在很长一段时间内难以撼动。争夺芯片产业话语权的游戏才刚刚开始,拥有超强算力兼具低能耗的芯片将是进入个人AI时代的一张门票,目前这张门票还未售出。Nvidia虽已牢牢把持住了服务器端芯片话语权,但移动终端芯片领域仍是一片“蓝海”。
随着中国将人工智能和芯片产业抬升到国家战略层面,以及寒武纪这类具有政府背景的公司出现,Nvidia势必将面临激烈挑战,这对中国而言,这未尝不是一次与全球巨头相互切磋和学习的过程。对于芯片产业的未来,或许就如凯文·凯利说的那样:“将来会颠覆你的,一定不会出现在你现有的对手名单里。”
【科技云报道原创】
来源:科技云报道
免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与 无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。