logo
. . .
微信扫一扫,加我为朋友。
长按二维码,加我为朋友。
服务热线
4000 896 016

算力硬件产品

首页 / 产品与服务 / 算力硬件产品

H100算力服务器

H100算力服务器
简介
Nvidia H100 80G*8 NVLink 用于人工智能和高性能计算的加速服务器平台, 随着 HGX H100 计算和网络能力的大幅增加, AI 和 HPC 应用程序的性能得到了极大的提高。
配置参数
CPU:Intel8468 48核心21GHZ-38GHZ*2; 内存:64G-DDR5-ECC*32; 系统盘:960GSSD SATA*2; 数据盘:7.68T SSD NVSwitch*2; GPU:NVIDA H100 80G*8 NVLink; IB卡:CONNECTX-7NDR/400G单口*4; IB卡:CONNECTX-6 MCX653106A-HDAT HDR/200G双口*1; 电源:3000W*6.
详情

 随着 HGX H100 计算和网络能力的大幅增加, AI 和 HPC 应用程序的性能得到了极大的提高。目前的主流 AI 和 HPC 模型可以完全驻留在单个节点的聚合 GPU 内存中。例如, BERT -Large 、 Mask R-CNN 和 HGX H100 是最高效的培训解决方案。对于更先进、更大的 AI 和 HPC 模型,该模型需要多个聚合 GPU 内存节点才能适应。例如,具有 TB 级嵌入式表的深度学习推荐模型( DLRM )、大量混合专家( MoE )自然语言处理模型,以及具有 NVLink 网络的 HGX H100 加速了关键通信瓶颈,是此类工作负载的最佳解决方案。