据英伟达官微消息,近日,NVIDIA宣布推出 NVIDIA HGX™ H200,为Hopper这一全球领先的AI计算平台再添新动力。
据悉,NVIDIA H200是首款采用HBM3e的GPU,其运行更快、更大的显存容量将进一步加速生成式AI与大语言模型,同时推进用于HPC工作负载的科学计算。凭借HBM3e,NVIDIA H200能够提供传输速度达4.8 TB /秒的141GB显存。与上一代架构的NVIDIA A100相比,其容量几乎翻了一倍,带宽也增加了2.4倍。
据了解,全球领先的服务器制造商和云服务提供商预计于2024年第二季度开始提供搭载 H200的系统。