英伟达发布新一代 AI 芯片 H200
https://s3.ifanr.com/images/ep/uploads/231113/4d7d05b5-d718-49a0-a060-97b33bbc8554.jpg!720当地时间周一,英伟达宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。
该平台基于 NVIDIA Hopper™ 架构,是 H100 GPU 的继任者,也是该公司首款使用 HBM3e 内存的芯片,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。
借助 HBM3e,英伟达 H200 以每秒 4.8 TB 的速度提供 141GB 内存,与 A100 相比,容量几乎翻倍,带宽增加 2.4 倍。
H200 的推出将带来进一步的性能飞跃,在 Llama 2 上的推理速度比 H100 快一倍。英伟达表示,未来的软件更新预计会带来 H200 的额外性能领先优势和改进。
英伟达 H200 芯片将于 2024 年第二季度开始向全球系统制造商和云服务提供商供货。
页:
[1]