人工智能(AI)的说法由来已久,但是最近几年才突然爆发,变得炙手可热。最为常见的就是人脸识别、机器人、自动驾驶等应用。而要实现诸多应用,最重要的硬件就是AI芯片。而英伟达(NVIDA),正是AI芯片行业的第一大供应商。
据外媒the information报道,华为目前正在开展一个代号为达芬奇计划“Project Da Vinci”的新项目,将自主研发AI芯片,挑战英伟达的领先地位。
“达芬奇计划”做了什么?将AI添加到一切产品和服务中
华为目前致力于将AI引入公司一切产品和服务中,包括电信基站和云数据中心、智能手机和监控摄像头等设备。而“达芬奇计划”就是这一系列想法的尝试。
通过“达芬奇计划”得到改造的业务之一是华为的“安全城市”业务。华为目前可通过AI驱动的监控摄像机,捕获图像并发送到远程数据中心,实现地方政府监控数据的收集和分析,并向警方发出警报,如自动识别交通事故、盗窃事件和街头斗殴等。
另一方面,华为正计划将更多的AI能力引入全球电信网络。为保证其运营商客户的基础设施升级、迎接5G网络,华为正开发新的设备和软件,利用电信基站创建更智能、支持AI的网络。据了解,这些基站可以自行检测和修复问题,同时通过预测无线数据流量波动,自动调整其运营。
此外,华为的云计算业务也在迅速发展,华为云业务正为企业客户提供服务器和其他数据中心设备(包括芯片)。而芯片方面的研发,则意味着将给英伟达带来挑战。
在目前的GPU芯片市场上,英伟达市场占有率高达70%,是当之无愧的芯片领域霸主。
我们可以看到,芯片巨头Nvidia(英伟达)已经牢牢占据AI芯片榜首,由于CUDA开发平台的普及,英伟达的GPU是目前应用最广的通用AI硬件计算平台。除了有实力自研芯片的企业(全世界也没几家),如果需要做AI相关的工作,必定需要用到Nvidia的芯片。Nvidia的芯片应用普遍,现在所有的AI软件库都支持使用CUDA加速,包括谷歌的Tensorflow,Facebook的Caffe,亚马逊的MXNet等。
在今年的电脑展上,英伟达主要发布了两款新品:HGX-2、Jetson Xavier。前者其实比较简单,就是今年CES上NVIDIA发布的那款DGX-2超级计算机的“拆解版”,目标就是让用户能够更加灵活地组装GPU加速节点。所以,其实也只能算半个“新品”。这也让另外一个新品——Jetson Xavier,显得更加重要。
我们来简单看看参数就知道了:
SoC整体大小为350 平方毫米,采用12nm FFN制程,整体功耗仅为30W;
CPU部分采用定制架构8核规格,10路超标量,支持双执行模式;
GPU采用最新Volta架构,含有512个CUDA核心,浮点运算能力高达1.3TFlops,人 工智能需求处理能力高达20 Tensor Core TOPS;
自带ISP,处理能力高达1.5GPIX/s,原生支持全幅HDR处理;
自带DLA( 学习加速器),提供5T FLOPS FP16运算能力,10 TOPS INT8运算能力;
自带PVA,处理高达1.6 TOPS,能够对光流和图像处理进行加速;
自带视频编码解码处理器,编码解码速度性能分别达到1.2、1.8GPIX/s。
这些参数或许你还是看不懂,但隐隐透露了英伟达这个人工智能领域开拓者的一个关键看法——对于人工智能来说,全通用性、全专用性处理器都不太适合,还是用多个处理器模块结合的SoC效率最高;
另外一个重要的结果是,Xavier既然能够横跨自动驾驶、机器人两个平台使用,那么未来英伟达也可以继续通过不断更新这样的SoC产品来推进这两个领域的市场。这实际上也就变成了一个关键性的简化。
从整体来看,SoC产品线的出现标志着英伟达的产品愈发成熟,同时这些SoC内部的GPU模块依旧使用了和NVIDIA所有GPU相同的微架构,以及对人工智能、图形加速等技术的支持。
在这样一个生态已经固化的环境中,华为达芬奇计划“Project Da Vinci”能否成功尚不可知。但是,希望华为公司能够在人工智能发扬光大,并带领中国AI芯走向世界。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )