英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应
每日经济新闻
2023-11-14 18:02:23

原标题:英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应

每经记者:杨卉 每经编辑:董兴生

黄仁勋又升级“装备”了。11月14日,《每日经济新闻》记者从英伟达处获悉,当地时间11月13日,英伟达宣布推出NVIDIA HGX™ H200(AI芯片型号,以下简称“H200”)。据悉,H200是首款采用HBM3e GPU(内存,相较此前速率更快、容量更大),进一步加速生成式AI与大语言模型,同时推进用于HPC(高性能计算)工作负载的科学计算,可提供传输速度4.8 TB/秒的141GB显存,与上一代架构的NVIDIA A100相比容量翻了近一倍,带宽增加了2.4倍。

图片来源:企业供图

在英伟达超大规模和高性能计算副总裁Ian Buck看来,想要通过生成式AI和HPC应用创造智能,就必须使用大型、快速的GPU显存来高速、高效地处理海量数据。当H200与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU搭配使用时,就组成了带有HBM3e的GH200 Grace™ Hopper超级芯片——专为大型HPC和AI应用而设计的计算模块。

从规格来看,H200将提供四路和八路H200服务器主板可选,与HGX H100系统的硬件和软件都兼容;还可用于今年8月发布的采用HBM3e的NVIDIA GH200 Grace Hopper™超级芯片。这些配置使H200可以部署在各类数据中心,包括本地、云、混合云和边缘;可为各种应用工作负载提供最高的性能,包括针对1750亿参数以上超大模型的LLM训练和推理。

架构方面,与前代相比,NVIDIA Hopper架构实现了性能跃升,如在一个700亿参数的LLM——Llama 2上的推理速度比H100(英伟达AI芯片)提高了近一倍。

根据英伟达方面的说法,将于2024年第二季度开始通过全球系统制造商和云服务提供商提供H200;服务器制造商和云服务提供商也预计于同一时间开始提供搭载H200的系统。

每日经济新闻

相关内容

热门资讯

差点被人抢走了!今天打了10分... 许多网友在网络游戏中最喜欢的便是PVP中人与人对抗的刺激感,特别是在势均力敌的战斗中,大家都在拼意识...
PS6性能会落后Xbox新主机... 来源:环球网 【环球网科技综合报道】3月14日消息,下一代游戏主机的轮廓正逐渐清晰,关于硬件性能的...
又一万亿级产业,爆发! 来源:央视财经 中国卫星导航系统管理办公室13日发布消息,为提供更加优质的服务,北斗卫星导航系统将于...
隧道施工智能化落地|五大核心电... 大家好,针对隧道施工环境复杂、人员流动性大、安全监管难度高的行业痛点,结合我们在云南/云南地区的项目...
联想Yoga Slim 7a海... IT之家 3 月 14 日消息,联想现已在欧洲市场推出第 11 代 Yoga Slim 7a 笔记本...