2024年3月18日讯 - 在今日的 GTC 大会上,英伟达 (NVIDIA) 推出了NVIDIA Blackwell平台,以推动计算的新时代。这一平台使得全球各地的组织能够以比前任产品低25倍的成本和能源消耗,构建和运行实时生成式人工智能。这些人工智能可以在万亿参数的大型语言模型上运行。
Blackwell GPU架构拥有六项加速计算的变革性技术,将有助于在数据处理、工程仿真、电子设计自动化、计算辅助药物设计、量子计算和生成式人工智能等领域实现突破。这些都是NVIDIA在新兴行业中的机遇。
“三十年来,我们一直致力于加速计算,旨在实现深度学习和人工智能等变革性突破。”英伟达 (NVIDIA) 创始人兼CEO黄仁勋表示,“生成式人工智能是我们这个时代的核心技术。Blackwell 是推动这场新工业革命的引擎。与全球最具活力的公司合作,我们将实现人工智能在每个行业的应用承诺。”
预计会采用Blackwell的许多组织包括亚马逊网络服务(Amazon Web Services)、戴尔科技(Dell Technologies)、谷歌(Google)、Meta、微软(Microsoft)、OpenAI、甲骨文(Oracle)、特斯拉(Tesla)和xAI。
Alphabet 和 Google 的首席执行官 Sundar Pichai 表示:“将搜索和 Gmail 等服务扩展到数十亿用户,让我们对管理计算基础设施有了很多经验。随着我们进入人工智能平台的转变,我们将继续深入投资于我们自己产品和服务以及云客户的基础设施。我们很幸运能与 NVIDIA 建立长期合作关系,并期待将 Blackwell GPU 的突破性能力带给我们的云客户和 Google 各团队,包括 Google DeepMind,加速未来的发现。”
亚马逊总裁兼首席执行官安迪·贾西表示:“我们与英伟达(NVIDIA)的深度合作已经超过13年,当时我们在AWS上推出了世界上第一个 GPU 云实例。如今,我们在云端提供了最广泛的GPU解决方案,支持世界上最先进的加速工作负载。这就是为什么新的NVIDIA Blackwell GPU在AWS上运行得如此出色的原因,也是英伟达 (NVIDIA) 选择与 AWS 合作开发 Project Ceiba 的原因,该项目将 NVIDIA 的下一代 Grace Blackwell Superchips 与 AWS Nitro System 的先进虚拟化和超快Elastic Fabric Adapter网络相结合,用于NVIDIA自己的人工智能研发。通过 AWS 和 NVIDIA 工程师之间的共同努力,我们将继续共同创新,使AWS成为任何人在云端运行 NVIDIA GPU 的最佳选择。”
戴尔科技的创始人兼首席执行官迈克尔·戴尔 (Michael Dell) 表示:“生成式人工智能对于创造更智能、更可靠、更高效的系统至关重要。戴尔科技和英伟达 (NVIDIA) 正在共同塑造技术的未来。随着Blackwell 的推出,我们将继续为客户提供下一代加速产品和服务,为他们提供驱动跨行业创新所需的工具。”
Google DeepMind 的联合创始人兼首席执行官 Demis Hassabis 表示:“人工智能的变革潜力是不可思议的,它将帮助我们解决一些世界上最重要的科学问题。Blackwell的突破性技术能力将为世界上最聪明的头脑提供必要的计算资源,帮助他们开辟新的科学发现。”
Meta 的创始人兼首席执行官马克·扎克伯格表示:“人工智能已经驱动了从我们的大型语言模型到内容推荐、广告和安全系统的一切,而且在未来将变得更加重要。我们期待使用英伟达 (NVIDIA) 的Blackwell 来帮助训练我们的开源Llama模型,并构建下一代 Meta 人工智能和消费产品。”
微软的执行董事长兼首席执行官萨提亚·纳德拉 (Satya Nadella) 表示:“我们致力于为客户提供最先进的基础设施,支持其人工智能工作负载。通过在全球数据中心部署GB200 Grace Blackwell处理器,我们在继续优化NVIDIA GPU为我们的云服务方面具有悠久的历史,以使人工智能的承诺在全球各地的组织中变为现实。”
OpenAI 的首席执行官 Sam Altman 表示:“Blackwell 提供了巨大的性能飞跃,将加速我们交付领先模型的能力。我们很高兴能继续与英伟达(NVIDIA)合作,提升人工智能计算能力。”
甲骨文公司的董事长兼首席技术官拉里·埃里森 (Larry Ellison) 表示:“甲骨文与英伟达(NVIDIA) 的密切合作将在人工智能、机器学习和数据分析领域实现定性和定量的突破。为了让客户发现更多可操作的见解,需要像 Blackwell 这样专为加速计算和生成式人工智能而构建的更强大的引擎。”
特斯拉和xAI的首席执行官埃隆·马斯克表示:“目前没有比英伟达 (NVIDIA) 硬件更适合人工智能的。”
这一新架构以数学家戴维·哈罗德·布莱克韦尔(David Harold Blackwell)的名字命名,他专攻博弈论和统计学,并成为第一位被选入美国国家科学院的黑人学者。这一新架构取代了两年前推出的NVIDIA Hopper™架构。
Blackwell 创新将推动加速计算和生成式人工智能
Blackwell 的六项革命性技术共同实现了AI训练和实时 LLM 推理,适用于参数扩展至10万亿级的模型。
全球最强大的芯片——Blackwell架构的GPU拥有2080亿个晶体管,采用定制的4NP TSMC工艺制造,通过每秒10TB的芯片对芯片链接连接两个光刻限制的GPU芯片,形成单一、统一的GPU。
第二代 Transformer 引擎——在新的微张量缩放支持和 NVIDIA 先进的动态范围管理算法的驱动下,整合到 NVIDIA TensorRT™-LLM 和 NeMo Megatron 框架中,Blackwell 将支持新的4位浮点数人工智能推理能力,使计算量和模型大小增加一倍。
第五代NVLink — 为了加速多万亿参数和专家混合型人工智能模型的性能,最新版本的NVIDIA NVLink®每个GPU提供了创新性的1.8TB/s的双向吞吐量,确保高达576个GPU之间进行最复杂的LLM之间的无缝高速通信。
RAS引擎 — 由Blackwell驱动的GPU包括专用于可靠性、可用性和可维护性的引擎。此外,Blackwell架构在芯片级别增加了能力,利用基于人工智能的预防性维护来运行诊断并预测可靠性问题。这最大化了系统的正常运行时间,提高了大规模人工智能部署的韧性,使其能够连续数周甚至数月运行而不中断,并降低运营成本。
安全人工智能 — 先进的保密计算能力在不影响性能的情况下保护人工智能模型和客户数据,支持新的原生接口加密协议,这对于隐私敏感的行业如医疗保健和金融服务至关重要。
解压引擎 — 专用的解压引擎支持最新的格式,加速数据库查询,以在数据分析和数据科学中提供最高性能。在未来几年,数据处理将越来越多地由GPU加速进行,而企业每年在数据处理上的支出将达到数百亿美元。
一个庞大的超级芯片
NVIDIA GB200 Grace Blackwell超级芯片通过900GB/s的超低功耗NVLink芯片对芯片互连将两个NVIDIA B200 Tensor Core GPU连接到NVIDIA Grace CPU。
为了获得最高的人工智能性能,由GB200提供动力的系统可以与今天宣布的NVIDIA Quantum-X800 InfiniBand和Spectrum™-X800以太网平台连接,这些平台提供了高达800Gb/s的高级网络功能。
GB200是NVIDIA GB200 NVL72的关键组件,这是一个用于最计算密集工作负载的多节点、液冷、机架规模系统。它结合了36个Grace Blackwell超级芯片,其中包括72个Blackwell GPU和36个Grace CPU,通过第五代NVLink相互连接。此外,GB200 NVL72还包括NVIDIA BlueField®-3数据处理单元,以实现云网络加速、组合式存储、零信任安全和超大规模AI云中的GPU计算弹性。与相同数量的NVIDIA H100 Tensor Core GPU相比,GB200 NVL72为LLM推理工作负载提供了高达30倍的性能提升,并将成本和能耗降低了高达25倍。
该平台具有 1.4 艾克斯弗洛普的人工智能性能和 30TB 的快速内存,作为单个 GPU 运行,并且是最新的DGX SuperPOD的构建模块。
NVIDIA 推出了 HGX B200,这是一款服务器主板,通过 NVLink 连接了八个 B200 GPU,以支持基于x86 的生成式人工智能平台。HGX B200 通过 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太网网络平台支持高达 400Gb/s 的网络速度。