3月7日消息,DeepSeek通过技术创新降低了对GPU等硬件的依赖,以更低的算力需求实现了世界一流的模型性能,这是其突然全球爆火的原因之一。
按理说,DeepSeek的出现打破了全球人工智能行业里“拼算力炼模型“的固有思维,一味“堆算力”并非大模型发展最优解了。
但是,现实却是,DeepSeek在全球现象级大热后,国内更多大厂都加大了对AI算力等基础设施的投入。
这背后是哪些考量呢?
AI军备竞赛升级
DeepSeek-R1出现后,全球云服务厂商几乎都第一时间选择上架DeepSeek-R1,以提供给自己的客户更优的模型,在云算力上也给予的大力扶持。
2月5日,百度智能云在官方公号发文称,近日成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。此外,百度智能云还将进一步点亮3万卡集群,百度通过自研芯片和大规模集群的建设,除了解决自身算力供应的问题外,还能为整个行业提供新的思路和方向。
2月18日,在百度发布2024年第四季度及全年财报后的财报电话会议上,百度代理CFO何俊杰在回答分析师提问时表示:在评估2025年的资本配置选项时,我们将继续把提升人工智能能力作为长期战略重点进行投资。
2月20日,在阿里巴巴2025财年三季报电话会上,阿里巴巴集团CEO吴泳铭更是直接宣告了加大投资AI基础设施建设的数字:未来3年在云和AI基础设施上的投入预计将超越过去10年总和。
另据新华社2月22日报道,国务院国资委近日召开中央企业“AI+”专项行动深化部署会。会议要求,中央企业在编制企业“十五五”规划中要将发展人工智能作为重点,同时要加大相关资金投入,持续壮大发展人工智能产业。会议指出,中央企业要夯实算力基座,为技术突破、应用落地提供有力支撑。
据IDC与浪潮信息联合发布的《2025年中国人工智能计算力发展评估报告》预计,2026年中国智能算力规模将达到1460.3EFLOPS,为2024年的两倍。
整体看来,从政策层面到企业层面,对AI算力、数据中心等算力基础设施的投入和建设都开启了新一轮的增长。
事实上,经过多年投入,国内以阿里、百度等为代表的互联网厂商已经初步建成了从基础设施到大模型平台再到AI原生应用的闭环布局。
在DeepSeek效应的推动下,大厂们开始加码对AI及算力基础设施的投入,进入新一轮AI军备竞赛,这背后是对AI应用将进入全面爆发期的预判。
AI应用普及,将带动推理算力需求爆发
大厂们认为,这一轮AI算力基础设施建设将要应对大模型推理算力需求的暴涨。
DeepSeek的出现重构了行业竞争格局,其开源策略和低成本优势(DeepSeek将大模型推理成本压缩了97%)让更多下游应用公司有机会涉足大模型业务。其开源理念打破了技术壁垒,让开发者能轻松获取资源,针对自身业务定制开发,这无疑大大助力和推动了大模型在各行业落地。例如政务服务、智能制造等领域加速部署大模型,带动云端推理算力需求增长。
近日,阿里云智能集团副总裁、数据库产品事业部负责人李飞飞在2025阿里云PolarDB开发者大会上就强调,大模型热潮上半场主要聚焦于大模型的训练和优化,而更为精彩的下半场即将拉开帷幕,即AI在各行各业的深入落地,随着人工智能应用的广泛使用,大模型推理将无处不在。
因此,为应对大模型应用推理需求的爆发,企业加大算力基础设施建设就成为水到渠成的事情。
德勤中国技术与转型部门技术战略与转型服务全国主管合伙人刘俊龙谈道:“我们在手机上用DeepSeek的时候,经常出现服务断掉的情况。这从另外一个角度说明,即使是DeepSeek也得需要足够的基础设施来支撑,对应用企业而言算力基础设施是非常重要的。”
刘俊龙向TechWeb表示,当前,对AI算力基础设施的投资,不仅云计算厂商需要做好,应用企业自身也要做好,因为很多大型企业仍然会把自己最核心的能力保留在企业私有化环境当中。
另外,新一代AI专用芯片的诞生,使得AI模型得以嵌入个人电脑和边缘设备,实现本地化、离线化运算。集成AI的边缘计算设备,也是未来重要的算力基础设施。例如,大模型一体机将成为政务与央国企部署AI的关键载体。
国产AI芯片迎来更多应用机会
值得注意的是,这一波AI算力基础设施投入,“软硬协同”也将是一大特征,国产芯片也将迎来更多机会。
在近日的2025玄铁RISC-V生态大会上,阿里达摩院首席科学家、知合计算CEO孟建熠就认为,DeepSeek的出现,推动行业更关注底层硬件能力的适配,强调算力资源的精细化匹配,改变了过去’大炮打蚊子’式的资源浪费现象(即过度依赖高精度计算资源处理简单任务),采用软硬件 融合的视角重构系统设计,通过算法与硬件的联合优化提升整体效率,形成更高效的AI计算范式。
阿里云无影事业部总裁张献涛进一步阐述道:“DeepSeek出来之前大家看到大模型在算力方面的需求量是极其大的。全世界真正能够运行671B参数模型的处理器,无论是通用处理器还是加AI芯片都是极其少的,可以只有英伟达能满足。但是DeepSeek出来之后,对于算力的要求没有以前那么高了,也给了更多的芯片一些机会。”
例如,在DeepSeek的创新里,它通过类似于MOE的技术,让很多算力不需要在算力卡上去做,可以在CPU里面去做,这对于CPU来说就是一个很好的机会。
此外,在DeepSeek的创新这也给芯片设计带来启发:包括如何在计算能力、存储容量,以及芯片之间互联通信、存储带宽等之间找到一个新的平衡点。
整体来看,DeepSeek的出现虽然通过技术创新降低了对高算力硬件的依赖,但其引发的AI应用热潮却促使大厂们进一步加大了对算力基础设施的投资。这一“降”与“增”看似矛盾,实则是AI规模化落地前夜的新战局:谁掌控算力生态的制高点,谁就握住了下一轮AI商业化的命脉。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )