5月29日消息,在台北电脑展COMPUTEX 2023上,黄仁勋做了展前主题演讲,并发布了包括超级GPU GH200在内的一系列与AI相关产品。
包括大内存生成式AI超级计算机DGX GH200;Grace Hopper超级芯片GH200;加速以太网平台Spectrum-X;为游戏提供定制化AI模型代工服务;与全球最大的营销服务机构WPP合作打造生成式AI内容引擎等。
英伟达还发布了MGX服务器规范,为系统制造商提供快速高效构建100多种服务器配置的模块化参考架构。黄仁勋说,有超过1600家生成式AI公司采用了英伟达技术。
在演讲中,黄仁勋宣布,人类已经到达了生成式AI的引爆点。从此,全世界的每个角落,都会有计算需求。
黄仁勋透露,英伟达最新GPU GH200 Grace Hopper超级芯片已全面投产,将为运行复杂的AI和高性能计算工作负载提供动力。
GH200 Grace Hopper超级芯片采用NVIDIA NVLink-C2C互连技术,将基于Arm的英伟达Grace CPU和Hopper GPU架构组合在同一封装中,提供了高达900GB/s的总带宽——比传统加速系统中的标准PCIe Gen5通道带宽高7倍,互连功耗降低到原来的1/5,能够满足苛刻的生成式AI和高性能计算(HPC)应用。
黄仁勋称,DGX GH200是首款将Grace Hopper超级芯片与英伟达NVLink Switch系统搭配的超级计算机,通过采用新互连方式,将256个Grace Hopper超级芯片连接在一起,使它们能像单个巨型GPU一样协同运行,从而提供了1EFLOPS的性能和144TB的共享内存,比2020年推出的上一代DGX A100 320GB系统的内存多出近500倍。
谷歌云、Meta、微软等是首批获得DGX GH200访问权限、用于生成式AI工作负载的公司。英伟达也打算将DGX GH200设计蓝图提供给云服务商及其他超大规模计算厂商,以便他们可以进一步为其基础设施定制DGX GH200。
此外,英伟达正在打造自己的基于DGX GH200的大型AI超级计算机NVIDIA Helios,以支持其研究和开发团队的工作。
它采用4个DGX GH200系统,每个都将与英伟达Quantum-2 InfiniBand网络连接,带宽高达400Gb/s,以提高训练大型AI模型的数据吞吐量。Helios将包括1024颗Grace Hopper超级芯片,将于年底上线。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 阿里巴巴拟发行 26.5 亿美元和 170 亿人民币债券
- 腾讯音乐Q3持续稳健增长:总收入70.2亿元,付费用户数1.19亿
- 苹果Q4营收949亿美元同比增6%,在华营收微降
- 三星电子Q3营收79万亿韩元,营业利润受一次性成本影响下滑
- 赛力斯已向华为支付23亿,购买引望10%股权
- 格力电器三季度营收同比降超15%,净利润逆势增长
- 合合信息2024年前三季度业绩稳健:营收增长超21%,净利润增长超11%
- 台积电四季度营收有望再攀高峰,预计超260亿美元刷新纪录
- 韩国三星电子决定退出LED业务,市值蒸发超4600亿元
- 鸿蒙概念龙头大涨超9倍,北交所与新能源板块引领A股强势行情
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。