新闻

GTC 2023:黄仁勋发布主题演讲 内容涉及ChatGPT、半导体制造

2023-03-23TechWeb

465阅
       3月22日消息,GTC2023于3月20日至23日举行,本届大会将举办超过650场由技术、商业、学术和政府领域领导者主持的会议。NVIDIA创始人兼首席执行官黄仁勋的GTC主题演讲于北京时间3月21日23:00全球首播。

  黄仁勋宣布与谷歌、微软、Oracle等一众领军企业开展广泛的合作,为各行各业带来新的AI、模拟和协作能力。黄仁勋在NVIDIA GTC大会主题演讲中表示:“如果把加速计算比作曲速引擎,那么AI就是动力来源。生成式AI的非凡能力,使得公司产生了紧迫感,他们需要重新构思产品和商业模式。”

  作为这场为期四天活动的主题演讲,黄仁勋在长达78分钟的演讲中概述了NVIDIA及其合作伙伴如何提供训练和部署尖端AI服务所需的各种技术。他发布了全新的半导体和软件库以推动行业新突破,以及一套完整的系统和服务,帮助各类初创公司及企业将这些创新在全球发挥作用。

  黄仁勋在演讲中用生动的例子说明了该生态系统的作用。他宣布NVIDIA和微软将把数亿Microsoft 365和Azure用户连接到一个用于构建和操作超现实虚拟世界的平台,并介绍了亚马逊如何使用复杂的模拟能力训练新的自主仓库机器人。他还谈到ChatGPT等最近大火的新一代生成式AI服务的兴起。

  在强调NVIDIA创新成果的基础作用时,黄仁勋详细介绍了NVIDIA在计算光刻技术领域所取得的突破,以及与ASML、TSMC和Synopsis的合作,这些将为制造高效、强大的新一代2纳米半导体奠定基础。

  黄仁勋表示,加速计算和AI的出现恰逢其时。摩尔定律正在放缓,各个行业正在应对可持续发展,生成式AI以及数字化等强大的动态挑战。“各个行业的企业正在竞相进行数字化转型,希望成为软件驱动的技术公司,成为行业颠覆者而不是被颠覆者。”

  加速计算可助力企业应对这些挑战。黄仁勋表示:“加速是重获优势、实现可持续发展,以及达到净零排放的最佳途径。”

  AI的iPhone时刻

  NVIDIA技术是AI的基础,黄仁勋讲述了NVIDIA如何在生成式AI变革初期就已参与进来。早在2016年,他就向OpenAI亲手交付了第一台NVIDIA DGX AI超级计算机——支持ChatGPT的大型语言模型突破背后的引擎。

  去年年底推出的ChatGPT几乎在一夜之间爆火,吸引了超过1亿用户,成为有史以来增长最快的应用。黄仁勋认为“我们正处于AI的iPhone时刻”。

  黄仁勋表示,最初作为AI研究仪器使用的NVIDIA DGX超级计算机现已在世界各地的企业中全天候运行,用于完善数据和处理AI。《财富》100强企业中有一半都安装了DGX AI超级计算机。“DGX超级计算机是现代AI工厂”。

  用于数据中心的NVIDIA H100、Grace Hopper和Grace

  黄仁勋表示,类似ChatGPT大型语言模型(LLM)的部署是一个重要的全新推理工作负载。为了支持像ChatGPT这样的大型语言模型推理,黄仁勋发布了一款新的GPU——带有双GPU NVLink的H100 NVL。

  基于NVIDIA Hopper架构的H100配有一个Transformer引擎,旨在处理驱动ChatGPT的类似GPT模型。与用于GPT-3处理的HGX A100相比,配备四对H100与双GPU NVLink的标准服务器的速度最高可达10倍。

  黄仁勋表示:“H100可以将大型语言模型的处理成本降低一个数量级。”

  在过去十年中,云计算每年增长20%并已发展成为一个万亿美元的产业。NVIDIA为这个AI和云优先的世界设计了Grace CPU,其中AI工作负载由GPU加速。Grace正在进行样品调测。

  通过900GB/s高速芯片对芯片的接口,NVIDIA Grace Hopper超级芯片可连接Grace CPU和Hopper GPU。黄仁勋解释说,“Grace Hopper是处理超大型数据集的理想选择,比如用于推荐系统的AI数据库和大型语言模型。”

  “客户希望构建规模大几个数量级的AI数据库,那么Grace Hopper是最理想的引擎。”

  DGX是构建AI基础设施的蓝图

  最新版本的DGX搭载8个NVIDIA H100 GPU,它们连接成为一个巨大的GPU。黄仁勋表示:“NVIDIA DGX H100是全球客户构建AI基础设施的蓝图”,现已全面投入生产。

  H100 AI超级计算机现已开始上线。Oracle Cloud Infrastructure宣布配备H100 GPU的新OCI Compute裸机GPU实例在一定条件可用。

  此外,亚马逊云科技发布了即将推出的P5实例EC2 UltraClusters,其规模可扩展到2万个互连的H100 GPU。

  上周,微软Azure发布了其H100虚拟机ND H100 v5的私人预览版。

  Meta现已为其内部的AI生产和研究团队部署了由H100驱动的Grand Teton AI超级计算机。

  OpenAI将在其Azure超级计算机上使用H100来支持其持续进行的AI研究。

  提供H100的其他合作伙伴包括Cirrascale和CoreWeave,这两家公司今天都宣布全面上市。此外,Google Cloud、Lambda、Paperspace和Vult都计划提供H100。

  DGX Cloud:随时随地将AI带给每家公司

  为了加快把DGX能力带给初创企业和其他各类企业,以助力其快速打造新产品和制定AI战略,黄仁勋发布了NVIDIA DGX Cloud。通过与微软Azure、Google Cloud和Oracle Cloud Infrastructure合作,“从浏览器上”即可实现将NVIDIA DGX AI超级计算机“带给每家公司”。

  DGX Cloud经过优化可以运行NVIDIA AI Enterprise,这款全球领先的加速软件套件将推动AI端到端开发和部署。黄仁勋表示:“DGX Cloud为客户提供NVIDIA AI和世界领先云服务提供商的出色服务。”

  NVIDIA正与领先的云服务提供商一起托管DGX Cloud基础设施,Oracle Cloud Infrastructure是最早合作的云服务提供商。微软Azure预计将在下个季度开始托管DGX Cloud,该服务将很快扩展到Google Cloud等。

  黄仁勋表示,此次合作将NVIDIA的生态系统带给云服务提供商,同时扩大了NVIDIA的规模和影响力。企业将能够按月租用DGX Cloud集群以便快速、轻松地扩展大型多节点训练工作负载的开发。

  赋能生成式AI

  为了加速企业使用生成式AI的工作,黄仁勋发布了NVIDIA AI Foundations云服务系列,为需要构建、完善和运行自定义大型语言模型及生成式AI的客户提供服务,他们通常使用专有数据进行训练并完成特定领域的任务。

  AI Foundations服务包括NVIDIA NeMo,用于构建自定义语言文本-文本转换生成模型;Picasso视觉语言模型制作服务,适用于想要构建使用授权或专有内容训练而成的自定义模型的客户;以及BioNeMo,助力2万亿美元规模的药物研发行业的研究人员。

  Adobe正与NVIDIA一起构建一整套用于未来创作工作的新一代AI。

  Getty Images正在与NVIDIA一起训练负责任的生成式文本-图像,以及文本-视频转换基础模型。

  Shutterstock正在与NVIDIA一起训练一个生成式文本-3D转换基础模型,以简化详细3D资产的创建。

  推动医疗的进步

  NVIDIA宣布,Amgen正在使用BioNeMo加速其药物研发服务。其他BioNemo的抢先体验客户包括Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore和Insilico。

  黄仁勋解释说,BioNeMo帮助研究人员使用他们的专有数据创建、微调和提供自定义模型。

  此外,黄仁勋宣布,NVIDIA和全球最大的医疗技术提供商Medtronic正在一起为软件定义医疗设备构建一个AI平台。此次合作将为Medtronic系统创建一个涵盖手术导引和机器人辅助手术的通用平台。

  Medtronic宣布,其GI Genius系统使用AI实现了结肠癌早期检测。该系统建立在用于实时传感器处理系统的软件库NVIDIA Holoscan之上,并将于今年年底左右出货。

  黄仁勋表示:“全球2500亿美元的医疗仪器市场正在转型。”

  加快生成式AI应用的部署

  为了帮助企业部署处于快速发展的生成式AI模型,黄仁勋发布了用于AI视频、图像生成、大型语言模型部署和推荐器推理的推理平台。这些平台将NVIDIA的全套推理软件与最新的NVIDIA Ada、Hopper和Grace Hopper处理器相结合,包括同时在今天推出的NVIDIA L4 Tensor Core GPU和NVIDIA H100 NVL GPU。

  用于AI视频的NVIDIA L4可提供比CPU高出120倍的由AI支持的视频性能,同时提高99%的能效。

  用于图像生成的NVIDIA L40针对图形以及AI赋能的2D、视频和3D图像生成进行了优化。

  用于大型语言模型部署的NVIDIA H100 NVL是规模化部署ChatGPT等大型语言模型的理想选择。

  用于推荐模型的NVIDIA Grace Hopper是图形推荐模型、矢量数据库和图形神经网络的理想选择。

  Google Cloud是首家向客户提供L4的云服务提供商。该公司已推出新的G2虚拟机并在今日提供私人预览版。谷歌还将L4集成到其Vertex AI模型商店中。

  微软与NVIDIA一起将Omniverse带给数亿用户

  黄仁勋宣布,NVIDIA正在与微软合作,将NVIDIA Omniverse Cloud这一完全托管的云服务引入全球各行各业,并推出又一项云服务以加速企业实现前所未有的模拟和协作能力。

  黄仁勋表示:“微软和NVIDIA将为数亿Microsoft 365和Azure用户提供Omniverse”。他同时还发布了最新NVIDIA OVX服务器、搭载NVIDIA RTX Ada Generation GPU的新一代工作站,以及英特尔为NVIDIA Omniverse优化的最新CPU。

  为了展示为3D设计协作及数字孪生模拟而构建的开放平台NVIDIA Omniverse的强大功能,黄仁勋分享了一段视频,展示了NVIDIA Isaac Sim如何通过完全保真的数字孪生帮助亚马逊节省时间和金钱。NVIDIA Isaac Sim是在Omniverse基础上构建的机器人模拟和合成生成平台。

  该视频展示了亚马逊如何为其第一个完全自主的仓库机器人Proteus编排动作,使其能够在亚马逊的巨大仓库中与人类和其他机器人一起搬运装有产品的箱子。

  助力3万亿美元规模汽车产业的数字化

  为了展示Omniverse的能力,黄仁勋深入介绍了Omniverse在3万亿美元汽车产业数字化中的作用。黄仁勋表示,到2030年,汽车制造商将建立300家工厂,生产2亿辆电动汽车,而电池制造商正在建设100家巨型工厂。他表示:“数字化将提高该行业的效率、生产力和速度。”

  谈到Omniverse在整个行业的应用,黄仁勋表示,Lotus正在使用Omniverse以虚拟方式组装焊接站。梅赛德斯-奔驰使用Omniverse为新车型建立、优化和规划装配线。Rimac和Lucid Motors在Omniverse上使用真实设计数据创建数字商店,以实现对汽车逼真的描绘。

  宝马与Idealworks合作,使用Omniverse中的Isaac Sim生成训练工厂机器人的合成数据和场景。黄仁勋表示,宝马正在使用Omniverse规划全球工厂的运营,在实际工厂开业两年之前,他们会在Omniverse中完整建造一间新的电动汽车工厂。

  NVIDIA还宣布全球领先的新能源汽车制造商比亚迪将在其更广泛的车型中扩展对NVIDIA DRIVE Orin集中式计算平台的使用。

  加速半导体行业的突破

  NVIDIA宣布推出一项将加速计算引入计算光刻技术领域的突破性成果。在当前生产工艺接近物理极限的情况下,这项突破使ASML、TSMC和Synopsys等半导体行业领导者能够加快新一代芯片的设计和制造。

  全球领先的代工厂TSMC,以及电子设计自动化领域的领导者Synopsys正在将全新的NVIDIA cuLitho计算光刻技术软件库整合到最新一代NVIDIA Hopper™架构GPU的软件、制造工艺和系统中。设备制造商ASML正在GPU和cuLitho方面与NVIDIA展开合作,并正在计划在其所有计算光刻软件产品中加入对GPU的支持。

  这一进展将使得未来的芯片能够拥有比目前更小的晶体管和导线,同时加快产品上市时间,大幅提高为驱动制造流程而全天候运行的大型数据中心的能效。

  NVIDIA创始人兼首席执行官黄仁勋表示:“芯片行业是全球几乎所有其他行业的基础。光刻技术已临近物理极限,NVIDIA cuLitho的推出以及我们与TSMC、ASML和Synopsys的合作,使晶圆厂能够提高产量、减少碳足迹并为2纳米及更高工艺奠定基础。”

  cuLitho在GPU上运行,其性能比当前光刻技术工艺(通常指在硅晶圆上绘制电路)提高了40倍,能够为目前每年消耗数百亿CPU小时的大规模计算工作负载提供加速。

  凭借这项技术,500个NVIDIA DGX H100系统即可完成原本需要4万个CPU系统才能完成的工作,它们能够同时运行计算光刻工艺的所有流程,助力降低耗电以及对环境的影响。

  在短期内,使用cuLitho的晶圆厂每天的光掩模(芯片设计模板)产量可增加3-5倍,而耗电量可以比当前配置降低9倍。原本需要两周时间才能完成的光掩模现在可以在一夜之间完成。

  从长远来看,cuLitho将带来更好的设计规则、更高的密度和产量以及AI驱动的光刻技术。

  加速全球大型企业的发展

  众多知名的全球企业均支持黄仁勋的愿景。

  电信巨头AT&T采用NVIDIA AI,以实现更高效地数据处理。同时,他们正在测试Omniverse ACE和Tokkio AI虚拟化身工作流为客服部门及其员工帮助台建立、定制和部署虚拟助手。

  美国运通、美国邮政署、Microsoft Office和Teams以及亚马逊等4万家客户都在使用高性能的NVIDIA TensorRT推理优化器和运行时,以及多框架数据中心推理服务软件NVIDIA Triton。

  Uber使用Triton实现每秒为数十万车辆预测到达时间。

  拥有超过6000万日活用户的Roblox使用Triton提供游戏推荐模型、构建头像、审核内容和市场广告。

  微软、腾讯和百度都在使用NVIDIA CV-CUDA实现AI计算机视觉。这项目前处于公测阶段的技术可优化前处理和后处理,节省4倍成本和能耗。

  助力完成不可能的任务

  在演讲尾声,黄仁勋向NVIDIA的系统、云和软件合作伙伴以及研究人员、科学家和员工致谢。

  黄仁勋宣布,NVIDIA已更新了100个加速库,包括用于量子计算的cuQuantum和新开源的CUDA Quantum、用于组合优化的cuOpt以及用于计算光刻的cuLitho。

  黄仁勋表示,全球NVIDIA生态目前已有400万名开发者、4万家公司和NVIDIA初创加速计划中的1.4万家初创企业。
责任编辑:王力
读者评论 (0)
请您登录/注册后再评论