首页

加入收藏

您现在的位置 : 首页 > 最新资讯

英伟达黄仁勋:ChatGPT仅是起点我们正处于AI的iPhone时刻

时间:03-23 来源:最新资讯 访问次数:131

英伟达黄仁勋:ChatGPT仅是起点我们正处于AI的iPhone时刻

雷递网 乐天 3月22日ChatGPT仅是一个起点。英伟达(NVIDIA)创始人兼首席执行官黄仁勋说,计算正在以“光速”发展。黄仁勋于今日宣布与谷歌、微软、Oracle等一众领军企业开展广泛的合作,为各行各业带来新的AI、模拟和协作能力。黄仁勋在NVIDIA GTC大会主题演讲中表示:“如果把加速计算比作曲速引擎,那么AI就是动力来源。生成式 AI 的非凡能力,使得公司产生了紧迫感,他们需要重新构思产品和商业模式。”作为这场为期四天活动的主题演讲,黄仁勋在长达78分钟的演讲中概述了NVIDIA及其合作伙伴如何提供训练和部署尖端AI服务所需的各种技术。黄仁勋宣布NVIDIA和微软将把数亿Microsoft 365和Azure用户连接到一个用于构建和操作超现实虚拟世界的平台,并介绍了亚马逊如何使用复杂的模拟能力训练新的自主仓库机器人。他还谈到ChatGPT等最近大火的新一代生成式AI服务的兴起。在强调NVIDIA创新成果的基础作用时,黄仁勋详细介绍了NVIDIA在计算光刻技术领域所取得的突破,以及与ASML、TSMC和Synopsis的合作,这些将为制造高效、强大的新一代2纳米半导体奠定基础。黄仁勋表示,加速计算和AI的出现恰逢其时。摩尔定律正在放缓,各个行业正在应对可持续发展,生成式AI以及数字化等强大的动态挑战。“各个行业的企业正在竞相进行数字化转型,希望成为软件驱动的技术公司,成为行业颠覆者而不是被颠覆者。”加速计算可助力企业应对这些挑战。黄仁勋表示:“加速是重获优势、实现可持续发展,以及达到净零排放的最佳途径。”AI的 iPhone时刻NVIDIA技术是AI的基础,黄仁勋讲述了NVIDIA如何在生成式AI变革初期就已参与进来。早在2016年,他就向OpenAI亲手交付了第一台NVIDIA DGX AI超级计算机——支持 ChatGPT 的大型语言模型突破背后的引擎。2022年年底推出的ChatGPT几乎在一夜之间爆火,吸引了超过1亿用户,成为有史以来增长最快的应用。黄仁勋认为 “我们正处于AI的 iPhone时刻 ”。黄仁勋表示,最初作为AI研究仪器使用的NVIDIA DGX超级计算机现已在世界各地的企业中全天候运行,用于完善数据和处理AI。《财富》100强企业中有一半都安装了DGX AI超级计算机。黄仁勋表示,类似ChatGPT大型语言模型(LLM)的部署是一个重要的全新推理工作负载。为了支持像ChatGPT这样的大型语言模型推理,英伟达发布了一款新的GPU——带有双GPU NVLink的H100 NVL。基于NVIDIA Hopper架构的H100配有一个Transformer引擎,旨在处理驱动ChatGPT的类似GPT模型。与用于GPT-3处理的HGX A100相比,配备四对H100与双GPU NVLink的标准服务器的速度最高可达10倍。黄仁勋表示:“H100可以将大型语言模型的处理成本降低一个数量级。”在过去十年中,云计算每年增长20%并已发展成为一个万亿美元的产业。NVIDIA为这个AI和云优先的世界设计了Grace CPU,其中AI工作负载由GPU加速。Grace正在进行样品调测。通过900GB/s高速芯片对芯片的接口,NVIDIA Grace Hopper超级芯片可连接Grace CPU和Hopper GPU。黄仁勋解释说,“ Grace Hopper是处理超大型数据集的理想选择,比如用于推荐系统的AI数据库和大型语言模型。”“客户希望构建规模大几个数量级的AI数据库,那么Grace Hopper是最理想的引擎。”DGX是构建AI基础设施的蓝图最新版本的DGX搭载8个NVIDIA H100 GPU,它们连接成为一个巨大的GPU。黄仁勋表示:“NVIDIA DGX H100是全球客户构建AI基础设施的蓝图”,现已全面投入生产。H100 AI超级计算机现已开始上线。Oracle Cloud Infrastructure宣布配备 H100 GPU 的新 OCI Compute 裸机 GPU 实例在一定条件可用。此外,亚马逊云科技发布了将推出的P5实例 EC2 UltraClusters,其规模可扩展到2万个互连的H100 GPU。上周,微软 Azure 发布了其 H100 虚拟机 ND H100 v5 的私人预览版。Meta 现已为其内部的 AI 生产和研究团队部署了由 H100 驱动的 Grand Teton AI 超级计算机。OpenAI将在其 Azure 超级计算机上使用 H100来支持其持续进行的AI研究。DGX Cloud:随时随地将AI带给每家公司为了加快把DGX能力带给初创企业和其他各类企业,以助力其快速打造新产品和制定AI战略,黄仁勋发布了NVIDIA DGX Cloud。通过与微软Azure、Google Cloud和Oracle Cloud Infrastructure合作,“从浏览器上” 即可实现将NVIDIA DGX AI超级计算机 “带给每家公司”。DGX Cloud经过优化可以运行NVIDIA AI Enterprise,这款全球领先的加速软件套件将推动AI端到端开发和部署。黄仁勋表示:“DGX Cloud为客户提供 NVIDIA AI和世界领先云服务提供商的出色服务。”NVIDIA正与领先的云服务提供商一起托管DGX Cloud基础设施,Oracle Cloud Infrastructure是最早合作的云服务提供商。微软Azure预计将在下个季度开始托管DGX Cloud,该服务将很快扩展到Google Cloud等。黄仁勋表示,此次合作将NVIDIA的生态系统带给云服务提供商,同时扩大了NVIDIA的规模和影响力。企业将能够按月租用DGX Cloud集群以便快速、轻松地扩展大型多节点训练工作负载的开发。赋能生成式AI为加速企业使用生成式AI的工作,黄仁勋发布了NVIDIA AI Foundations云服务系列,为需要构建、完善和运行自定义大型语言模型及生成式AI的客户提供服务,他们通常使用专有数据进行训练并完成特定领域的任务。AI Foundations服务包括NVIDIA NeMo,用于构建自定义语言文本-文本转换生成模型;Picasso视觉语言模型制作服务,适用于想要构建使用授权或专有内容训练而成的自定义模型的客户;以及BioNeMo,助力2万亿美元规模的药物研发行业的研究人员。Adobe正与NVIDIA一起构建一整套用于未来创作工作的新一代AI。Getty Images正在与NVIDIA一起训练负责任的生成式文本-图像,以及文本-视频转换基础模型。Shutterstock正在与NVIDIA一起训练一个生成式文本-3D转换基础模型,以简化详细3D资产的创建。推动医疗的进步NVIDIA宣布,Amgen正在使用BioNeMo加速其药物研发服务。其他BioNemo的抢先体验客户包括Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore和Insilico。黄仁勋解释说,BioNeMo帮助研究人员使用他们的专有数据创建、微调和提供自定义模型。此外,黄仁勋宣布,NVIDIA和全球最大的医疗技术提供商Medtronic正在一起为软件定义医疗设备构建一个AI平台。此次合作将为Medtronic系统创建一个涵盖手术导引和机器人辅助手术的通用平台。Medtronic今日宣布,其GI Genius系统使用AI实现了结肠癌早期检测。该系统建立在用于实时传感器处理系统的软件库NVIDIA Holoscan之上,并将于今年年底左右出货。黄仁勋表示:“全球2500亿美元的医疗仪器市场正在转型。”加快生成式AI应用的部署为了帮助企业部署处于快速发展的生成式AI模型,黄仁勋发布了用于AI视频、图像生成、大型语言模型部署和推荐器推理的推理平台。这些平台将NVIDIA的全套推理软件与最新的NVIDIA Ada、Hopper和Grace Hopper处理器相结合,包括同时在今天推出的NVIDIA L4 Tensor Core GPU和NVIDIA H100 NVL GPU。用于AI视频的NVIDIA L4可提供比CPU高出120倍的由AI支持的视频性能,同时提高99%的能效。用于图像生成的NVIDIA L40针对图形以及AI赋能的2D、视频和3D图像生成进行了优化。用于大型语言模型部署的NVIDIA H100 NVL是规模化部署ChatGPT等大型语言模型的理想选择。用于推荐模型的NVIDIA Grace Hopper是图形推荐模型、矢量数据库和图形神经网络的理想选择。Google Cloud是首家向客户提供L4的云服务提供商。该公司已推出新的G2虚拟机并在今日提供私人预览版。谷歌还将L4集成到其Vertex AI模型商店中。微软与NVIDIA一起将Omniverse带给数亿用户黄仁勋宣布,NVIDIA 正在与微软合作,将 NVIDIA Omniverse Cloud 这一完全托管的云服务引入全球各行各业,并推出又一项云服务以加速企业实现前所未有的模拟和协作能力。黄仁勋表示:“微软和NVIDIA将为数亿Microsoft 365和Azure用户提供Omniverse” 。他同时还发布了最新NVIDIA OVX服务器、搭载NVIDIA RTX Ada Generation GPU的新一代工作站,以及英特尔为NVIDIA Omniverse优化的最新CPU。为了展示为3D设计协作及数字孪生模拟而构建的开放平台NVIDIA Omniverse的强大功能,黄仁勋分享了一段视频,展示了NVIDIA Isaac Sim如何通过完全保真的数字孪生帮助亚马逊节省时间和金钱。NVIDIA Isaac Sim是在Omniverse基础上构建的机器人模拟和合成生成平台。该视频展示了亚马逊如何为其第一个完全自主的仓库机器人Proteus编排动作,使其能够在亚马逊的巨大仓库中与人类和其他机器人一起搬运装有产品的箱子。助力3万亿美元规模汽车产业的数字化为了展示Omniverse的能力,黄仁勋深入介绍了Omniverse在3万亿美元汽车产业数字化中的作用。黄仁勋表示,到2030年,汽车制造商将建立300家工厂,生产2亿辆电动汽车,而电池制造商正在建设100家巨型工厂。他表示:“数字化将提高该行业的效率、生产力和速度。”谈到Omniverse在整个行业的应用,黄仁勋表示,Lotus正在使用Omniverse以虚拟方式组装焊接站。梅赛德斯-奔驰使用Omniverse为新车型建立、优化和规划装配线。Rimac和Lucid Motors在Omniverse上使用真实设计数据创建数字商店,以实现对汽车逼真的描绘。宝马与Idealworks合作,使用Omniverse中的Isaac Sim生成训练工厂机器人的合成数据和场景。黄仁勋表示,宝马正在使用Omniverse规划全球工厂的运营,在实际工厂开业两年之前,他们会在 Omniverse 中完整建造一间新的电动汽车工厂。NVIDIA 还宣布全球领先的新能源汽车制造商比亚迪将在其更广泛的车型中扩展对 NVIDIA DRIVE Orin 集中式计算平台的使用。雷递由媒体人雷建平创办,若转载请写明来源。

本信息由网络用户发布,本站只提供信息展示,内容详情请与官方联系确认。

标签 : 最新资讯