NVIDIA DGX Station A100

NVIDIA DGX Station A100

服务器级、即插即用,体积小、水冷散热,2.5 petaFLOPS 的性能,且提供 80GB 或 40GB NVIDIA A100 Tensor Core GPU 两种配置,为您的团队进行深度学习训练、推理和数据分析带来无限动力。

查看源图像


NVIDIA DGX Station ™ A100 概览

> AI 工作组服务器可提供 2.5 petaFLOPS 的性能,可为您的团队进行深度学习训练、推理和数据分析带来无限动力

> 服务器级、即插即用且无需数据中心电源和散热

> 世界一流的 AI 平台,省去复杂的安装过程,也无需 IT 部门帮助

> 全球唯一的工作站式系统,含四个全互连的 NVIDIA A100 Tensor Core GPU,以及高达 320GB 的 GPU 内存

> 借助 NVIDIA 的专业知识和经验,快速实现 AI 转型

NVIDIA DGX Station A100 将 AI 超级计算引入数据科学团队,无需数据中心或其他 IT 基础架构,即可提供数据中心技术。NVIDIA DGX Station A100 针对多个用户同时访问的情况而设计,在适合办公室的机箱中采用服务器级组件。这是唯一具有四个完全互连和多实例 GPU (MIG) 功能的 NVIDIA A100 Tensor Core GPU、拥有高达 320GB 的 GPU 总内存、可以插入标准电源插座的系统,从而提供可随处安置且功能强大的 AI 设备。

面向数据科学团队的 AI 超级计算

DGX Station A100 可轻松地为多个同时访问的用户提供集中式 AI 资源,堪称 AI 时代的工作组设备。该设备能够以并行方式运行训练、推理和分析工作负载,此外,借助 MIG,还能为单个用户和作业提供多达 28 个独立 GPU 实例,这样一个应用运行时就不会影响整个系统的性能。DGX Station A100 配备与 所有 DGX 系统相同的经全面优化的 NVIDIA DGX ™ 软件堆栈,可带来出色的性能以及与基于 DGX 基础架构的完全互通性,如单一系统和 NVIDIA DGX POD ™ 及 NVIDIA DGX SuperPOD ™ ,让 DGX Station A100 成为所有组织(不论规模如何)中团队的理想平台。





NVIDIA   DGX
     Station A100 160GB
NVIDIA   DGX
     Station A100 320GB
GPUs4   块 NVIDIA A100
     40 GB GPU
4   块 NVIDIA A100
     80GB GPU
GPU Memory(GPU 内存)共 160GB共 320GB
Performance(性能)2.5   petaFLOPS AI
     5 petaOPS INT8

System Power   Usage

(系统功率)

1.5   kW (100–120 Vac)
CPU单路   AMD 7742、64 核心、
     2.25 GHz(基准频率)- 3.4 GHz (最大加速频率)
System Memory(系统内存)512GB DDR4
Networking(网络)双端口   10Gbase-T 以太网 LAN
     单端口 1Gbase-T 以太网 BMC
     管理端口
Storage(存储)操作系统   :1 个 1.92TB NVME 驱动器
内部存储 :7.68TB   U.2 NVME 驱动器

DGX Display Adapter

(DGX 显示适配器)

4GB   GPU 显存、4 个 Mini DP
System Acoustics(系统声音)<37   dB
Software(软件)Ubuntu   Linux 操作系统
System Weight(系统重量)43.1   千克

Packaged System Weight

(包装后系统重量)

57.93   千克

System Dimensions

(系统尺寸)

高度   :639 毫米

宽度 :256 毫米

长度 :518 毫米

Operating Temperature Range

(运行温度范围)

5–35   ºC