今天,NVIDIA宣布其首批DGXH100系统正在向全球客户发货,以推进AI工作负载。
NVIDIADGXH100GPU驱动的系统现已在全球发售,为人工智能工作负载提供动力
NVIDIAHopperH100在GTX2022上宣布,被称为世界上第一款也是最快的4纳米数据中心芯片,可提供高达4000TFLOPs的AI计算能力。该芯片采用全新的GPU架构,拥有800亿个晶体管、超快的HBM3内存和NVLINK功能,专门针对各种工作负载,包括人工智能(AI)、机器学习(ML)、深度神经网络(DNN)和各种专注于HPC的计算工作负载。
NVIDIA和英特尔通过HopperH100GPU和第四代XeonCPU为AI计算增压:效率提升25倍1
NVIDIA表示,现在,第一批DGXH100Hopper系统正在向从东京到斯德哥尔摩的客户发货。该公司在其新闻稿中表示,HopperH100GPU的诞生是为了运行生成式人工智能,这种人工智能已经通过ChatGPT(GPT-4)等工具风靡全球。首席执行官黄仁勋已经将ChatGPT称为计算史上最伟大的事情之一,并表示这是人工智能的iPhone时刻。该公司发现对其AIGPU的巨大需求导致其股票飙升。
NVIDIA带头为一些负责为这些生成工具提供支持的世界顶级数据中心客户提供支持。部分公司名单如下:
BostonDynamicsAIInstitute(TheAIInstitute)是一家研究机构,其历史可追溯至著名的机器人先驱波士顿动力公司,它将使用DGXH100来实现这一愿景。研究人员想象灵巧的移动机器人可以帮助工厂、仓库、灾难现场以及最终家中的人们。
Scissero在伦敦和纽约设有办事处,并使用GPT驱动的聊天机器人来提高法律程序的效率。它的ScisseroGPT可以起草法律文件、生成报告和进行法律研究。
在德国,DeepL将使用多个DGXH100系统来扩展其为客户提供的数十种语言之间的翻译等服务,其中包括日本最大的出版公司Nikkei。DeepL最近发布了一款名为DeepLWrite的AI写作助手。
在东京,作为Tokyo-1超级计算机的一部分,DGXH100s将运行模拟和AI以加速药物发现过程。Xeureka是一家由日本最大的企业集团之一三井物产株式会社于2021年11月成立的初创公司,它将管理该系统。
英伟达
但这还不是全部。你看,NVIDIA已经慢慢地从一家硬件公司转变为一家软件公司和供应商。制造GPU和HPC系统等硬件是一回事,但驱动它们是更重要的任务。为此,NVIDIA拥有庞大的软件堆栈,旨在从其GPU中榨取每一点汁液。NVIDIA的BaseCommand和AIEnterprise等软件套件以及整个CUDA框架只是其客户和合作伙伴可用的整个NVIDIA软件堆栈的构建块。