当前位置:8288分类目录 » 站长资讯 » 新闻 » 文章详细

英伟达推出两款全新安培张量核心GPU: A10 24 GB GDDR6和A30 24 GB HBM2 用于数据中心

来源:网络转载 浏览:76348次 时间:2023-11-15
除了所有的中央处理器和图形处理器发布之外,英伟达今天还发布了基于安培的新A10和A30 TensorCore图形处理器。这两个图形处理器用于数据中

除了所有的中央处理器和图形处理器发布之外,英伟达今天还发布了基于安培的新A10和A30 TensorCore图形处理器。这两个图形处理器用于数据中心,主要用于虚拟化平台。


分类目录


这些新的TensorCore GPUs的有趣之处在于它们的规格。A10使用的是GA102 GPU,而A30使用的是GA100 GPU。虽然都是基于Ampere,但是两个GPU的内存子系统会有很大的不同,因为提供GDDR6的A10和提供数据中心标准HBM2内存标准的A30。因此,让我们仔细看看规格。

英伟达A10张量核心GPU由GA102-890 SKU驱动。它有72个SMs和总共9216个CUDA内核。GPU的基本时钟频率为885 MHz,最高可提高到1695 MHz。它符合PCIe第4.0代标准,内存中有24 GB GDDR6 VRAM,可以在384位宽的总线接口上以12.5 Gbps的速度运行。GPU提供600 GB/s的带宽。

至于卡片的设计,它使用了一个香槟金封面,带有一个插槽和全长尺寸。由于这是无源散热卡,没有风扇,通过单个8针连接器供电,卡通过单个8针连接器运行,满足其150瓦TDP要求。性能方面,NVIDIA A10张量核心GPU最高可提供31.2 TF FP32、62.5 TFTFTF32、125 TF BFLOAT16、250 TOPS INT8、500 TOPS INT4以及两倍稀疏率。

英伟达A30安培张量核心图形处理器

另一方面,NVIDIA A30 Tensor Core GPU使用的是GA100 SKU,但具体的变体还不知道。它似乎是一个相当紧凑的变体,基本时钟为930兆赫,升压时钟高达1440兆赫。GPU配备24 GB HBM2 VRAM,可在3072位宽总线接口上以1215 MHz运行。这意味着我们只看三个活动的HBM2内存堆栈。该堆栈可提供高达933 GB/s的内存带宽。

与A10不同,NVIDIA A30 Tensor Core GPU采用双插槽和全长设计。它也由单个8针连接器供电,但具有更高的165瓦TDP额定值。性能方面,NVIDIA A30 Tensor Core GPU提供高达5.2 TF FP64、10.3 TF Peak FP64TF、10.3 TF FP32、82 TF TF32、165 TF BFLOAT16、330 TOPS INT8、661 TOPS INT4以及两倍的稀疏率。

英伟达张量核心安培图形处理器

!important;"> A10 A30 显卡 GA102-890 GA100 FP64 – 5.2兆 FP64张量核心 – 10.3兆 FP32 31.2兆 10.3兆 TF32张量核心 62.5 teraFLOPS |125 teraFLOPS * 82 teraFLOPS |165 teraFLOPS * BFLOAT16张量核心 125 teraFLOPS |250 teraFLOPS * 165 teraFLOPS |330 teraFLOPS * FP16张量核心 125 teraFLOPS |250 teraFLOPS * 165 teraFLOPS |330 teraFLOPS * INT8张量核心 250 TOPS |500 TOPS * 330 TOPS |661 TOPS * INT4张量核心 500 TOPS |1,000 TOPS * 661 TOPS |1321 TOPS * RT核心 72个RT内核 – 编码/解码 1个编码器 2个解码器(+ AV1解码) 1个光流加速器(OFA) 1个JPEG解码器(NVJPEG) 4个视频解码器(NVDEC) GPU内存 24GB GDDR6 24GB HBM2 GPU内存带宽 600GB /秒 933GB /秒 互连线 PCIe Gen4 64GB /秒 PCIe Gen4:64GB / s 第三代NVLINK:200GB / s ** 外形尺寸 单槽全高全长(FHFL) 双插槽,全高,全长(FHFL) 最大散热设计功率(TDP) 150瓦 165瓦 多实例GPU(MIG) – [email protected] [email protected] 1个GPU实例@ 24GB vGPU软件支持 NVIDIA虚拟PC,NVIDIA虚拟应用程序,NVIDIA RTX虚拟 工作站,NVIDIA虚拟计算服务器 适用于VMware NVIDIA Virtual Compute Server的NVIDIA AI Enterprise

浪潮支持A30,A10和A100的全新GPU服务器

超灵活的AI工作负载,支持2个Intel第三代Intel Xeon可扩展处理器和8个NVIDIA A100 / A40 / A30 GPU,16个NVIDIA A10 GPU或20个NVIDIA T4 GPU;在4U机箱中最多支持12个3.5英寸硬盘驱动器,用于大型本地存储;灵活适应最新的AI加速器和智能NIC,并具有一键式切换拓扑的独特功能,适用于各种AI应用程序,包括AI云,IVA(智能视频分析),视频处理等。

NF5468A5:

多功能AI服务器,具有2个AMD Rome / Milan CPU和8个NVIDIA A100 / A40 / A30 GPU;N + N冗余设计可在全速运行中使用8个350W AI加速器,从而具有出色的可靠性;CPU到GPU的非阻塞设计允许在不进行PCIe交换机通信的情况下进行互连,从而实现更快的计算效率。

NF5280M6:

专为所有场景而打造,在2U机箱中配备2个Intel第三代Intel Xeon可扩展处理器和4个NVIDIA A100 / A40 / A30 / A10 GPU或8个NVIDIA T4 Tensor Core GPU,能够在45°下长期稳定运行C。NF5280M6配备了最新的PFR / SGX技术和可信赖的安全模块设计,适用于要求苛刻的AI应用。

此外,浪潮还宣布了全新的浪潮M6 AI服务器,完全支持NVIDIA Bluefield-2 DPU。展望未来,浪潮计划将NVIDIA Bluefield-2 DPU集成到其下一代AI服务器中,这将为AI,大数据分析,云计算等场景提供更快,更高效的用户和集群管理以及互连的数据访问。和虚拟化。

可用性

全球计算机制造商现已提供20多个NVIDIA认证系统。具有NVIDIA A30和NVIDIA A10 GPU的NVIDIA认证系统将于今年晚些时候从制造商处上市。

NVIDIA AI Enterprise是永久许可,每个CPU插槽的价格为3,595美元。NVIDIA AI Enterprise的企业业务标准支持费用为每个许可每年899美元。客户可以在计划升级到VMware vSphere 7 Update 2时申请NVIDIA AI Enterprise的早期访问。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。 标签:NVIDIA



8288分类目录声明:本站部分文章来源于网络,版权属于原作者所有。如有转载或引用文章/图片涉及版权问题,请联系我们处理.我们将在第一时间删除! 联系邮箱:tsk@qq.com

推荐网站

最新加入网站 TOP5

入站排行榜 TOP5