NVIDIA DGX Station A100
服务器级、即插即用,体积小、水冷散热,2.5 petaFLOPS 的性能,且提供 80GB 或 40GB NVIDIA A100 Tensor Core GPU 两种配置,为您的团队进行深度学习训练、推理和数据分析带来无限动力。

NVIDIA DGX Station ™ A100 概览
> AI 工作组服务器可提供 2.5 petaFLOPS 的性能,可为您的团队进行深度学习训练、推理和数据分析带来无限动力
> 服务器级、即插即用且无需数据中心电源和散热
> 世界一流的 AI 平台,省去复杂的安装过程,也无需 IT 部门帮助
> 全球唯一的工作站式系统,含四个全互连的 NVIDIA A100 Tensor Core GPU,以及高达 320GB 的 GPU 内存
> 借助 NVIDIA 的专业知识和经验,快速实现 AI 转型
NVIDIA DGX Station A100 将 AI 超级计算引入数据科学团队,无需数据中心或其他 IT 基础架构,即可提供数据中心技术。NVIDIA DGX Station A100 针对多个用户同时访问的情况而设计,在适合办公室的机箱中采用服务器级组件。这是唯一具有四个完全互连和多实例 GPU (MIG) 功能的 NVIDIA A100 Tensor Core GPU、拥有高达 320GB 的 GPU 总内存、可以插入标准电源插座的系统,从而提供可随处安置且功能强大的 AI 设备。
面向数据科学团队的 AI 超级计算
DGX Station A100 可轻松地为多个同时访问的用户提供集中式 AI 资源,堪称 AI 时代的工作组设备。该设备能够以并行方式运行训练、推理和分析工作负载,此外,借助 MIG,还能为单个用户和作业提供多达 28 个独立 GPU 实例,这样一个应用运行时就不会影响整个系统的性能。DGX Station A100 配备与 所有 DGX 系统相同的经全面优化的 NVIDIA DGX ™ 软件堆栈,可带来出色的性能以及与基于 DGX 基础架构的完全互通性,如单一系统和 NVIDIA DGX POD ™ 及 NVIDIA DGX SuperPOD ™ ,让 DGX Station A100 成为所有组织(不论规模如何)中团队的理想平台。
| NVIDIA DGX Station A100 160GB | NVIDIA DGX Station A100 320GB |
GPUs | 4 块 NVIDIA A100 40 GB GPU | 4 块 NVIDIA A100 80GB GPU |
GPU Memory(GPU 内存) | 共 160GB | 共 320GB |
Performance(性能) | 2.5 petaFLOPS AI 5 petaOPS INT8 |
System Power Usage (系统功率) | 1.5 kW (100–120 Vac) |
CPU | 单路 AMD 7742、64 核心、 2.25 GHz(基准频率)- 3.4 GHz (最大加速频率) |
System Memory(系统内存) | 512GB DDR4 |
Networking(网络) | 双端口 10Gbase-T 以太网 LAN 单端口 1Gbase-T 以太网 BMC 管理端口 |
Storage(存储) | 操作系统 :1 个 1.92TB NVME 驱动器 内部存储 :7.68TB U.2 NVME 驱动器 |
DGX Display Adapter (DGX 显示适配器) | 4GB GPU 显存、4 个 Mini DP |
System Acoustics(系统声音) | <37 dB |
Software(软件) | Ubuntu Linux 操作系统 |
System Weight(系统重量) | 43.1 千克 |
Packaged System Weight (包装后系统重量) | 57.93 千克 |
System Dimensions (系统尺寸) | 高度 :639 毫米 宽度 :256 毫米 长度 :518 毫米 |
Operating Temperature Range (运行温度范围) | 5–35 ºC |