操久久,日韩无码视频123,99热99在线观看,久草免费在线视频

NVIDIA A30 GPU

借助 NVIDIA A30 Tensor Core GPU 為各種企業(yè)工作負(fù)載帶來加速性能。借助 NVIDIA Ampere 架構(gòu) Tensor Core 和多實(shí)例 GPU (MIG),它可以安全加速各種工作負(fù)載,其中包括大規(guī)模 AI 推理和高性能計(jì)算 (HPC) 應(yīng)用程序。具有 PCIe 外形規(guī)格(非常適合主流服務(wù)器)的 A30 集快速顯存帶寬與低功耗于一體,不僅能實(shí)現(xiàn)彈性數(shù)據(jù)中心,還能為企業(yè)帶來更大價(jià)值

借助 NVIDIA A30 Tensor Core GPU 為各種企業(yè)工作負(fù)載帶來加速性能。借助 NVIDIA Ampere 架構(gòu) Tensor Core 和多實(shí)例 GPU (MIG),它可以安全加速各種工作負(fù)載,其中包括大規(guī)模 AI 推理和高性能計(jì)算 (HPC) 應(yīng)用程序。具有 PCIe 外形規(guī)格(非常適合主流服務(wù)器)的 A30 集快速顯存帶寬與低功耗于一體,不僅能實(shí)現(xiàn)彈性數(shù)據(jù)中心,還能為企業(yè)帶來更大價(jià)值。

 

深度學(xué)習(xí)訓(xùn)練

為應(yīng)對(duì)對(duì)話式 AI 等新型挑戰(zhàn)而訓(xùn)練 AI 模型需要強(qiáng)大的計(jì)算能力與可擴(kuò)展性。

NVIDIA A30 Tensor Core 具備 Tensor Float (TF32) 精度,可提供比 NVIDIA T4 高 10 倍之多的性能,并且無需更改代碼;若使用自動(dòng)混合精度和 FP16,性能可進(jìn)一步提升 2 倍,綜合起來可將吞吐量提高 20 倍。與 NVIDIA? NVLink?、PCIe Gen4、NVIDIA Mellanox? 網(wǎng)絡(luò)和 NVIDIA Magnum IO? SDK 配合使用時(shí),可以擴(kuò)展到數(shù)千個(gè) GPU。

Tensor Core 和 MIG 使 A30 全天都能夠動(dòng)態(tài)地用于工作負(fù)載。它可以在需求高峰時(shí)段用于生產(chǎn)推理,并且部分 GPU 可以在非高峰時(shí)段改用于快速重新訓(xùn)練同一批模型。

NVIDIA 在行業(yè)級(jí) AI 訓(xùn)練基準(zhǔn)測(cè)試 MLPerf 中取得多項(xiàng)性能佳績。對(duì)于具有龐大數(shù)據(jù)表的超大型模型(例如深度學(xué)習(xí)推薦模型 [DLRM]),A800 80GB 可為每個(gè)節(jié)點(diǎn)提供高達(dá) 1.3TB 的統(tǒng)一顯存,而且吞吐量比 A800 40GB 多高達(dá) 3 倍。

NVIDIA 的領(lǐng)先地位在MLPerf這個(gè)行業(yè)級(jí) AI 訓(xùn)練基準(zhǔn)測(cè)試中得到印證,創(chuàng)下多項(xiàng)性能紀(jì)錄。

 

深度學(xué)習(xí)推理

A30 引入了突破性的功能來優(yōu)化推理工作負(fù)載。它能在從 FP64 到 TF32 和 INT4 的整個(gè)精度范圍內(nèi)進(jìn)行加速。A30 每個(gè) GPU 支持多達(dá) 4 個(gè) MIG,允許多個(gè)網(wǎng)絡(luò)在安全的硬件分區(qū)中同時(shí)運(yùn)行,同時(shí)保證服務(wù)質(zhì)量 (QoS)。在 A30 其他推理性能增益的基礎(chǔ)之上,僅結(jié)構(gòu)化稀疏支持一項(xiàng)就能帶來高達(dá)兩倍的性能提升。

NVIDIA 產(chǎn)品的出色 AI 性能在 MLPerf 推理測(cè)試中得到驗(yàn)證。通過與可以輕松地大規(guī)模部署 AI 的 NVIDIA Triton? 推理服務(wù)器配合使用,A30 能為不同企業(yè)帶來此突破性性能。

 

高性能計(jì)算

為了獲得新一代的發(fā)現(xiàn)成果,科學(xué)家們希望通過仿真來更好地了解我們周圍的世界。

NVIDIA A30 采用 FP64 NVIDIA Ampere 架構(gòu) Tensor Core,提供自 GPU 推出以來幅度非常大的 HPC 性能飛躍。配合 24 GB 的 GPU 顯存和 933 GB/s 的帶寬,可讓研究人員快速解決雙精度計(jì)算問題。HPC 應(yīng)用程序還可以利用 TF32 提高單精度、密集矩陣乘法運(yùn)算的吞吐量。

FP64 Tensor Core 與 MIG 的結(jié)合能讓科研機(jī)構(gòu)安全地對(duì) GPU 進(jìn)行分區(qū),以允許多位研究人員訪問計(jì)算資源,同時(shí)確保 QoS 和更高的 GPU 利用率。部署 AI 的企業(yè)可以在需求高峰時(shí)段使用 A30 的推理功能,然后在非高峰時(shí)段將同一批計(jì)算服務(wù)器改用于處理 HPC 和 AI 訓(xùn)練工作負(fù)載。

 

高性能數(shù)據(jù)分析

數(shù)據(jù)科學(xué)家需要能夠分析和可視化龐大的數(shù)據(jù)集,并將其轉(zhuǎn)化為寶貴見解。但是,由于數(shù)據(jù)集分散在多臺(tái)服務(wù)器上,橫向擴(kuò)展解決方案往往會(huì)陷入困境。

搭載 A30 的加速服務(wù)器可以提供必需的計(jì)算能力,并能利用大容量 HBM2 顯存、933 GB/s 的顯存帶寬和通過 NVLink 實(shí)現(xiàn)的可擴(kuò)展性妥善處理這些工作負(fù)載。通過結(jié)合 InfiniBand、NVIDIA Magnum IO 和 RAPIDS? 開源庫套件(包括 RAPIDS Accelerator for Apache Spark),NVIDIA 數(shù)據(jù)中心平臺(tái)能夠加速這些大型工作負(fù)載,并實(shí)現(xiàn)超高的性能和效率水平。

 

企業(yè)就緒,高效利用

A30 結(jié)合 MIG 技術(shù)可以更大限度地提高 GPU 加速的基礎(chǔ)設(shè)施的利用率。借助 MIG,A30 GPU 可劃分為多達(dá) 4 個(gè)獨(dú)立實(shí)例,讓多個(gè)用戶都能使用 GPU 加速功能。

MIG 與 Kubernetes、容器和基于 Hypervisor 的服務(wù)器虛擬化配合使用。MIG 可讓基礎(chǔ)設(shè)施管理者為每項(xiàng)作業(yè)提供大小合適的 GPU,同時(shí)確保 QoS,從而擴(kuò)大加速計(jì)算資源的影響范圍,以覆蓋每位用戶。

 

NVIDIA AI Enterprise

NVIDIA AI Enterprise 是一套端到端云原生 AI 和數(shù)據(jù)分析軟件,經(jīng)認(rèn)證可在基于服務(wù)器虛擬化平臺(tái)的虛擬基礎(chǔ)設(shè)施(帶有 VMware vSphere)中的 A30 上運(yùn)行。這允許在混合云環(huán)境中管理和擴(kuò)展 AI 工作負(fù)載。

 

注:與 NVIDIA 產(chǎn)品相關(guān)的圖片或視頻(完整或部分)的版權(quán)均歸 NVIDIA Corporation 所有。

粵公網(wǎng)安備 44030502006483號(hào)、 粵ICP備15047669號(hào)
  • 捷易科技聯(lián)系人