老黄深夜炸场,AIGC进入iPhone时刻!Hugging Face接入最强超算,神秘显卡胜过A100

人工智能 新闻
昨天深夜,重返SIGGRAPH舞台的老黄,再次给全世界带来了「亿点点」震撼。在这个LLM大爆炸的时代,老黄依然敢大胆放话:「买得越多,省得越多!」

生成式AI的时代已经来临,属于它的iPhone时刻到了!

就在8月8日,英伟达CEO黄仁勋,再次登上了世界顶级计算机图形学会议SIGGRAPH的舞台。

一系列重磅更新接踵而至——下一代GH200超级芯片平台、AI Workbench、OpenUSD……

而英伟达也借此将过去数十年的所有创新,比如人工智能、虚拟世界、加速、模拟、协作等等,一举融合到一起。

在这个LLM大爆炸的时代,老黄依然敢大胆放话:「买得越多,省得越多!」

英伟达最强AI超算再升级

在5年前的SIGGRAPH上,英伟达通过将人工智能和实时光线追踪技术引入GPU,重新定义了计算机图形学。

老黄表示:「当我们通过AI重新定义计算机图形学时,我们也在为AI重新定义GPU。」

随之而来的,便是日益强大的计算系统。比如,集成了8个GPU并拥有1万亿个晶体管的NVIDIA HGX H100。

就在今天,老黄再次让AI计算上了一个台阶——

除了为NVIDIA GH200 Grace Hopper配备更加先进的HBM3e内存外,下一代GH200超级芯片平台还将具有连接多个GPU的能力,从而实现卓越的性能和易于扩展的服务器设计。

而这个拥有多种配置的全新平台,将能够处理世界上最复杂的生成式工作负载,包括大语言模型、推荐系统和向量数据库等等。

比如,双核心方案就包括一台配备了144个Arm Neoverse核心并搭载了282GB HBM3e内存的服务器,可以提供8 petaflops的AI算力。

其中,全新的HBM3e内存要比当前的HBM3快了50%。而10TB/sec的组合带宽,也使得新平台可以运行比上一版本大3.5倍的模型,同时通过3倍更快的内存带宽提高性能。

据悉,该产品预计将在2024年第二季度推出。

RTX工作站:绝佳刀法,4款显卡齐上新

这次老黄的桌面AI工作站GPU系列也全面上新,一口气推出了4款新品:RTX 6000、RTX 5000、RTX 4500和RTX 4000。

如果H100以及配套的产品线展示的是英伟达GPU性能的天际线的话,针对桌面和数据中心推出的这几款产品,则是老黄对成本敏感客户秀出的绝佳「刀法」。

在发布这新GPU的时候,现场还出现了一个意外的小花絮。

老黄从后台拿出第一块GPU的时候,似乎不小心在镜面面板上沾了指纹。

老黄发现后觉得可能是自己搞砸了,就很不好意思地和现场观众说对不起,表示这次产品发布可能是有史以来最差的一次。

看来就算开发布会熟练如老黄,也会有翻车的时刻。

而如此可爱的老黄,也惹得在场观众不断发笑。

言归正传,作为旗舰级专业卡,RTX 6000的性能参数毫无疑问是4款新品中最强的。

凭借着48GB的显存,18176个CUDA核心,568个Tensor核心,142个RT核心,和高达960GB/s的带宽,它可谓是一骑绝尘。

RTX 5000配备了32GB显存,12800个CUDA核心,400个Tensor核心,100个RT核心。

RTX 4500配备了24GB显存,7680个CUDA核心,240个Tensor核心,60个RT核心。

RTX 4000配备了20GB显存,6144个CUDA核心,192个Tensor核心,48个RT核心。

基于新发布的4张新的GPU,针对企业客户,老黄还准备一套一站式解决方案—— RTX Workstation。

支持最多4张RTX 6000 GPU,可以在15小时内完成8.6亿token的GPT3-40B的微调。

还能让Stable Diffusion XL每分钟生成40张图片,比4090快5倍。

OVX服务器:搭载L40S,性能小胜A100

而专为搭建数据中心而设计的NVIDIA L40S GPU,性能就更加爆炸了。

基于Ada Lovelace架构的L40S,配备有48GB的GDDR6显存和846GB/s的带宽。

在第四代Tensor核心和FP8 Transformer引擎的加持下,可以提供超过1.45 petaflops的张量处理能力。

对于算力要求较高的任务,L40S的18,176个CUDA核心可以提供近5倍于A100的单精度浮点(FP32)性能,从而加速复杂计算和数据密集型分析。

此外,为了支持如实时渲染、产品设计和3D内容创建等专业视觉处理工作,英伟达还为L40S 还配备了142个第三代RT核心,可以提供212 teraflops的光线追踪性能。

对于具有数十亿参数和多种模态的生成式AI工作负载,L40S相较于老前辈A100可实现高达1.2倍的推理性能提升,以及高达1.7倍的训练性能提升。

在L40S GPU的加持下,老黄又针对数据中心市场,推出了最多可搭载8张L40S的OVX服务器。

对于拥有8.6亿token的GPT3-40B模型,OVX服务器只需7个小时就能完成微调。

对于Stable Diffusion XL模型,则可实现每分钟80张的图像生成。

AI Workbench:加速定制生成式AI应用

除了各种强大的硬件之外,老黄还重磅发布了全新的NVIDIA AI Workbench,来帮助开发和部署生成式AI模型。

概括来说,AI Workbench为开发者提供了一个统一且易于使用的工具包,能够快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIA DGX Cloud上。

具体而言,AI Workbench的优势如下:

- 易于使用

AI Workbench通过提供一个单一的平台来管理数据、模型和计算资源,简化了开发过程,支持跨机器和环境的协作。

- 集成AI开发工具和存储库

AI Workbench与GitHub、NVIDIA NGC、Hugging Face等服务集成,开发者可以使用JupyterLab和VS Code等工具,并在不同平台和基础设施上进行开发。

- 增强协作

AI Workbench采用的是以项目为中心的架构,便于开发者进行自动化版本控制、容器管理和处理机密信息等复杂任务,同时也可以支持团队之间的协作。

- 访问加速计算资源

AI Workbench部署采用客户端-服务器模式。团队可以现在在本地计算资源上进行开发,然后在训练任务变得更大时切换到数据中心或云资源上。

Stable Diffusion XL自定义图像生成

首先,打开AI Workbench并克隆一个存储库。


接下来,在Jupyter Notebook中,从Hugging Face加载预训练的Stable Diffusion XL模型,并要求它生成一个「太空中的Toy Jensen」。

然而,根据输出的图像可以看出,模型并不知道Toy Jensen是谁。

这时就可以通过DreamBooth,并使用8张Toy Jensen的图片对模型进行微调。

最后,在用户界面上重新运行推理。

现在,知道了Toy Jensen是谁的模型,就可以生成切合需求的图像了。

Hugging Face一键访问最强算力

作为最受AI开发者喜爱的平台之一,拥有200万用户、超25万个模型,以及5万个数据集的Hugging Face,这次也与英伟达成功达成了合作。

现在,开发者可以通过Hugging Face平台直接获得英伟达DGX Cloud AI超算的加持,从而更加高效地完成AI模型的训练和微调。

其中,每个DGX Cloud实例都配备有8个H100或A100 80GB GPU,每个节点共有640GB显存,可满足顶级AI工作负载的性能要求。

此外,英伟达还将联合Hugging Face推出全新的「Training Cluster as a Service」服务,简化企业创建和定制生成式AI模型的过程。

对此,老黄激动得表示:「这次,Hugging Face和英伟达将世界上最大的AI社区与全球领先的云AI计算平台真正地连接在了一起。Hugging Face的用户只需点击一下,即可访问英伟达的最强AI算力。」

AI Enterprise 4.0:定制企业级生成式AI

为了进一步加速生成式AI的应用,英伟达也将其企业级平台NVIDIA AI Enterprise升级到了4.0版本。

目前,AI Enterprise 4.0不仅可以为企业提供生成式AI所需的工具,同时还提供了生产部署所需的安全性和API稳定性。

- NVIDIA NeMo

一个用于构建、定制和部署大语言模型的云原生框架。借助NeMo,英伟达AI Enterprise可以为创建和定制大语言模型应用提供了端到端的支持。

- NVIDIA Triton管理服务

帮助企业进行自动化和优化生产部署,使其在Kubernetes中能够自动部署多个推理服务器实例,并通过模型协调实现可扩展A 的高效运行。

- NVIDIA Base Command Manager Essentials集群管理软件

帮助企业在数据中心、多云和混合云环境中最大化AI服务器的性能和利用率。

除了英伟达自己,AI Enterprise 4.0还将集成到给其他的合作伙伴,比如Google Cloud和Microsoft Azure等。

此外,MLOps提供商,包括Azure Machine Learning、ClearML、Domino Data Lab、Run:AI和Weights & Biases,也将与英伟达AI平台进行无缝集成,从而简化生成式AI模型的开发。

Omniverse:在元宇宙中加入大语言模型

最后,是NVIDIA Omniverse平台的更新。

在接入了OpenUSD和AIGC工具之后,开发者可以更加轻松地生成模拟真实世界的3D场景和图形。

图片图片

就像它的名字一样,Omniverse的定位是一个集合了各种工具的3D图形制作协作平台。

图片图片

3D开发者可以像文字编辑们在飞书或者钉钉中一样,在Omniverse上共同制作3D图形和场景。

而且可以将不同的3D制作工具制作出来的成果直接整合在Omniverse之内,将3D图形和场景的制作工作流彻底打通,化繁为简。

OpenUSD

而这次更新中,接入的OpenUSD是什么东西?

OpenUSD(Universal Scene Description)提供了一个开源,通用的场景描述格式,使不同品牌、不同类型的3D设计软件可以无障碍的协作。

Omnivers本身就是建立在USD体系之上的,这次Omniverse针对OpenUSD的升级,使得Omniverse能为开发者,企业推出了更多的框架和资源服务。

基于OpenUSD这个开源的3D图像编辑格式,5家公司(苹果,皮克斯,Adobe,Autodesk,英伟达)成立了AOUSD联盟,进一步推动了3D图像业界采用OpenUSD格式。

而且,借助AOUSD联盟的成立,Omniverse的开发者也可以方便的创建各种兼容于苹果的ARKit或者是RealityKit的素材和内容,更新后Omniverse也支持OpenXR的标准,使得Omniverse能够支持HTC VIVE,Magic Leap,Vajio等VR头显设备。

API,ChatUSD和其他更新

此外,英伟达还发布了新的Omniverse Cloud API,让开发者可以更加无缝地部署OpenUSD管线和应用程序。

而最引人瞩目的,就是支持基于大语言模型的ChatUSD的支持。

基于大语言模型技术的ChatUSD能像Github Copilot一样,在Omniverse平台中回答开发者的相关问题,或者自动生成Python-USD的代码,让开发人员效率暴增。

总而言之,英伟达再次用暴力的产品,令人惊叹的技术,高瞻远瞩的洞见,让全世界再次看到,它未来将如何引领世界AI和图形计算的新浪潮。

在老黄的经典名言「the more you buy,the more you save!」中,老黄缓缓走下舞台,却把现场气氛推向了最高潮。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-11-14 08:59:25

英伟达AI

2023-05-29 16:14:00

英伟达GPU

2023-03-22 10:09:26

AIChatGPT

2023-10-08 09:00:00

LLMGitHub人工智能

2024-04-02 11:39:17

数据训练

2023-04-05 14:31:49

AI超算人工智能

2023-04-06 09:37:22

谷歌AI

2010-06-18 13:59:23

Tesla超算

2010-12-24 10:56:22

2023-03-14 13:06:54

2023-12-06 15:40:17

AI

2024-04-26 00:00:00

OpenAIGPT-5超算

2024-01-02 09:10:17

k开源数据

2023-11-07 16:17:14

ChatGPTAIGC开发者

2023-08-09 17:47:40

黄仁勋计算机NVIDIA

2023-03-22 08:14:03

英伟达人工智能

2021-12-29 14:37:35

英伟达GPU数据

2023-09-22 08:59:45

2023-11-28 13:53:00

数据模型

2023-03-09 13:39:14

数据比赛
点赞
收藏

51CTO技术栈公众号