NVIDIA A30 TENSOR CORE GPU
NVIDIA A30 Tensor Core GPU 是用途广泛的主流计算 GPU,适用于 AI 推理和主流企业工作负载。这款 GPU 提供强大的特性、功能和性能,可应对当今专业工作流的挑战,支持广泛的数学精度,可针对每个工作负载提供单个加速器。

NVIDIA AMPERE 架构
无论是使用 MIG 技术将 A30 GPU 分割为较小的实例,还是使用 NVIDIA NVLink 连接多个GPU 以加速更大规模的工作负载,A30 均可轻松满足多种规模的加速需求 ,从小型作业到大型多节点工作负载都无一例外。A30 功能全面,这意味着 IT 经理可借此在主流服务器上充分利用数据中心内的每个 GPU,昼夜不停歇。

第三代 TENSOR CORE 技术
NVIDIA A30 可提供 165 teraFLOPS (TFLOPS)的TF32 精度深度学习性能。相较于 NVIDIA T4 Tensor Core GPU,A30 可将 AI 训练吞吐量提高 20 倍,并将推理性能提高 5 倍以上。A30 可在 HPC 方面提供 10.3 TFLOPS 的性能,比 NVIDIA V100 Tensor Core GPU高出了近 30%。

结构化稀疏
AI 网络拥有数百万至数十亿个参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使模型变得“稀疏”。A30 中的 Tensor Core可为稀疏模型提供高达两倍的性能提升。稀疏功能不仅更易使 AI 推理受益,同时还能提升模型训练的性能。

多实例 GPU(MIG)
每个 A30 GPU 最多可分割为四个GPU 实例,这些实例在硬件级别完全独立,并各自拥有高带宽显存、缓存和计算核心。借助 MIG,开发者可为其所有应用实现惊人加速。IT 管理员可为每个作业提供符合其规模的 GPU 加速,进而优化利用率,并让每个用户和应用都能享受 GPU 加速性能。

新一代 NVLINK
A30 中采用的 NVIDIA NVLink可提供两倍于上一代的吞吐量。两个 A30 PCIe GPU 可通过 NVLink 桥接器连接,以提供 330 TFLOPS的深度学习性能。

HBM2 显存
配合高达 24GB 的高带宽显存(HBM2),A30 可提供933GB/s 的 GPU 显存带宽,适用于主流服务器中的多种 AI 和 HPC 工作负载。