发布于2023-11-17 阅读(0)
扫一扫,手机访问
据外媒报道,当地时间周一,英伟达发布了人工智能(AI)芯片HGX H200,该GPU利用Hopper架构来加速人工智能应用。
据外媒报道,H200是去年发布的H100 GPU的后续产品。H100是英伟达首款基于Hopper架构打造的GPU,此前是英伟达最强大的人工智能GPU芯片。
英伟达称,H200是首款提供HBM3e内存的GPU。得益于HBM3e, H200可提供141GB内存和每秒4.8TB的带宽,可加速生成式人工智能和大型语言模型(LLM),同时可以处理人工智能和超级计算工作负载所需的大量数据。
该公司还表示,H200的推出将带来进一步的性能飞跃,包括在Llama 2(一个具有700亿参数的LLM)上的推理速度比 H100快了近一倍。预计在未来的软件更新中,H200的性能将进一步领先和提高。
英伟达表示,全球系统制造商和云服务提供商将从2024年第二季度开始使用H200。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本文部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们联系,我们会及时进行修改或删除
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店