正在阅读:

一文了解GTC:英伟达发布最强芯片B200,还有机器人通用大模型及自动驾驶平台更新

扫一扫下载界面新闻APP

一文了解GTC:英伟达发布最强芯片B200,还有机器人通用大模型及自动驾驶平台更新

英伟达时隔两年发布全新“Blackwell”架构GPU,针对当前火爆的AI大模型进行了大幅优化。

图片来源:英伟达

界面新闻记者 | 彭新 李彪

界面新闻编辑 | 文姝琪

抓住生成式AI机会的英伟达全面出击,为大小挑战者设下新标杆。

随着人工智能革命席卷而来,英伟达的旗舰技术会议GTC已被外界视为“全球AI风向标”,美国时间3月18日,英伟达CEO黄仁勋的开幕演说更是备受外界关注,在此次黄仁勋的主讲环节在美国圣何塞SAP中心举行。

在开场,黄仁勋以“这不是一场音乐会”进行调侃,称在科技业外,仍有来自全球价值百万亿美元的行业从业者出席了会议,他对此感到非常自豪。黄仁勋称,随着ChatGPT的问世,激发了大众对于AI的想象,各种创新应用和创业公司陆续诞生,一个全新的时代已经来临了。

英伟达市值仅2024年就增加了1万亿美元,使其一举成为标准普尔500指数中表现最好的股票,因此市场高度关注GTC相关消息。美股3月18日,英伟达收报884.55美元/股,涨0.7%。

“Blackwell”成为平台:GPU、DPU、NVLink全线更新

市场最为关注,英伟达时隔两年发布全新“Blackwell”架构GPU(图形处理器)如约亮相。

Blackwell用于数据中心,针对当前火爆的AI大模型优化,训练、推理性能和能效均大幅提升,与英伟达Grace CPU、新一代网络芯片等产品一起,面向生成式AI共同组成完整解决方案。黄仁勋还特意称,Blackwell不只是芯片,而是一个全新的平台。至此英伟达从芯片走向了类似苹果的平台之路。

新GPU架构“Blackwell”得名于美国数学家David Harold Blackwell,基于该架构的GPU芯片B200采用台积电4NP制造工艺,英伟达称其可实现在十万亿级参数模型上的AI训练和实时LLM(大语言模型)推理。

B200由两个超大型Die(裸片)封装组合而成,内含超过2080亿个晶体管,是前一代800亿个晶体管的两倍以上,整块芯片还封装有192GB高速HBM3e显存。

在演讲中,英伟达CEO黄仁勋将Blackwell称为“推动新一轮工业革命的引擎”,并定义其为一个平台,基于Blackwell,衍生出GPU、AI超级芯片、服务器、大型计算集群、云服务等多套解决方案。

此前,英伟达发布了“Grace Hopper”超级芯片,随着Blackwell架构GPU发布,英伟达顺势推出“Grace Blackwell”GB200超级芯片,GB200由两个B200 GPU和Grace GPU相连。

英伟达表示,基于Blackwell的处理器,B200为人工智能公司提供了巨大的性能升级,其AI性能为每秒20千万亿次浮点运算,而此前最强的H100为每秒4千万亿次浮点运算,约是其5倍。该系统可以部署一个27万亿参数的模型。而目前据称OpenAI的GPT-4使用了约1.76万亿个参数来训练系统。

一般而言,在数据中心架构中,通用性更高的CPU负责数据的查询、存储;而GPU则更擅长并行计算,因此承担推理的任务。除了CPU、GPU本身带宽大小决定了传输速度,CPU与GPU间的数据传输还存在“带宽瓶颈”,这一瓶颈同样由NVLink连接协议方案所解决。

Blackwell GPU计算性能强劲,但面对大模型时代的GPU集群计算,如何解决芯片之间的数据传输问题已成为瓶颈。对此,英伟达同步推出新一代NVLink连接协议方案和NVSwitch芯片,组成X800系列交换机,大幅提高数据吞吐量至800Gb/s,用来处理GPU之间的数据传输,进一步增强GPU集群扩展性和计算能力。

英伟达还发布了GB200 NVL72,整合英伟达在数据中心硬件方案中GPU、DPU、NVLink等技术的最新成果,构成驱动大语言模型背后的引擎。

GB200 NVL72进入云端,成为云厂商计算实例,黄仁勋在演讲中还发布搭载B100 GPU的AI云服务DGX Cloud。通过与云厂商平台向用户提供能够训练生成式AI大模型,及其他AI应用的算力月租服务,该服务将首先上线亚马逊云、微软Azure和甲骨文云。

B200 GPU将于今年晚些时候推出,英伟达称,包括亚马逊云科技、戴尔科技、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和xAI将计划采用Blackwell产品。

人形机器人基础模型和Isaac机器人平台大更新

英伟达过去针对机器人市场的Isaac 机器人平台也得到重大更新,包括发布了一款基于Thor芯片的新型人形机器人计算机Jetson Thor,以及一系列机器人预训练模型、库和参考硬件,在生成式AI基础模型和仿真工具,以及英伟达算力的支持下,进一步对人形机器人应用优化。

Jetson Thor提供每秒800万亿次8位浮点运算AI性能,可以运行GR00T等多模态生成式AI模型,并大大简化设计和集成工作。

英伟达称,正在为多家人形机器人公司开发一个综合AI平台,如1X Technologies、Agility Robotics、Apptronik、波士顿动力公司、Figure AI、傅利叶智能、Sanctuary AI、宇树科技和小鹏鹏行等。

在黄仁勋的主题演讲过程中,迪士尼生产的使用相关英伟达芯片的Orange和Green机器人也登上了舞台现场亮相。

“开发通用人形机器人基础模型是当今AI领域中最令人兴奋的课题之一。世界各地的机器人技术领导者正在汇集各种赋能技术,致力于在人工通用机器人领域实现突破。”黄仁勋也现场表达了公司对人形机器人研究的支持。

自动驾驶:多项重要合作宣布

黄仁勋在GTC主题演讲中宣布,集中式车载计算平台DRIVE Thor将搭载专为Transformer、大语言模型(LLM)和生成式AI工作负载而打造的全新Blackwell架构。

2015年,英伟达进入车载计算平台领域,推出了初代自动驾驶计算平台DRIVE PX和Tegra系列车载芯片,后陆续发布Xavier芯片、Orin芯片问世,。2022年又在汽车业务增速放缓的情况下,英伟达正式推出新一代自动驾驶计算芯片DRIVE Thor,当时公布的单颗算力高达2000 TOPS,是特斯拉FSD芯片算力的14倍。

多家头部电动汽车制造商在GTC上展示了其搭载DRIVE Thor的下一代AI车型,既包括比亚迪、广汽埃安、小鹏、理想汽车和极氪等众多中国车企,也包括了文远知行等自动驾驶平台公司。

根据弗若沙利文统计数据显示,2022年英伟达出货量占到全球高算力自动驾驶芯片市场份额为82.5%。按照黄仁勋的规划,未来汽车业务将与数据中心、游戏并列成为英伟达的三大支柱业务。

推理微服务成为AI入口:已用于量子计算、医药行业

除了硬件产品,英伟达还与大量与企业合作,推进AI落地。在发布会上,英伟达的推理微服务(NIM)颇具野心,它将作为企业AI的入口。

该服务有望支撑英伟达未来在AI服务上的营收增长,其具体模式为:英伟达提供预训练好的AI模型并开放API(应用程序接口),再由行业客户开发应用,以简化企业自己开发生成式AI应用的成本。

黄仁勋也在现场示范了英伟达内部藉NIM所打造的“芯片设计聊天机器人”,经过数据训练和模型微调后,聊天机器人即可给出符合芯片设计领域的答案,甚至能同步生成所需的程序代码。

在量子计算领域,英伟达宣布推出云量子计算机模拟微服务,帮助研究人员和开发人员在化学、生物学、材料科学等科学领域的量子计算研究,该服务基于开源CUDA-Q量子计算平台,支持用户在云端构建并测试新的量子算法和应用,包括支持量子-经典混合算法编程的模拟器和工具等。与其他云服务不同,英伟达目前还没有量子计算机,但未来它将提供第三方量子计算机的访问。

在医药领域,英伟达宣布旗下包括Parabricks、MONAI、NeMo™、Riva、Metropolis,现已通CUDA-X微服务提供访问,以加速药物研发、医学影像、基因组学分析等医疗工作流程。

英伟达还介绍,其已经推出的25个面向医疗领域的微服务,可以加快医疗企业的转型,包括筛选数万亿种药物化合物以促进医学发展、收集更完善的患者数据以改进早期疾病检测、实现更智能的数字助手等。

长期以来黄仁勋向外强调,摩尔定律已死,计算范式正发生改变,由CPU主导的通用计算转向GPU的加速计算,GPU在行业场景下有大量替代CPU的机会,生成式AI更大大加速了这一进程。

此前英伟达宣布的计算光刻平台cuLitho,已成为一大成功案例,在GTC上,英伟达宣布,台积电和EDA公司新思科技将在生产中使用cuLitho,在生成式AI应用算法帮助下,晶圆厂的芯片生产效率将大幅提高。

数字人和虚拟助手:更真实的游戏体验来了

游戏起家的英伟达,自然也没有忘记人工智能技术在游戏领域大显身手,这次GTC上重点展示的是它的数字人技术。

英伟达数字人平台包括三项主要技术:NVIDIA ACE、NVIDIA NeMo和RTX光线追踪技术,分别通过AI驱动游戏角色语言、语音、动画和图形。

其中,NVIDIA ACE可帮助开发者通过Audio2Face驱动的面部动画以及由Riva自动语音识别(ASR)和文本转语音(TTS)驱动的语音交流,让数字人交互更加生动。英伟达称,NVIDIA ACE允许模型在云端和PC上运行,以确保用户获得最佳体验。此外,全球游戏发行商正评估NVIDIA ACE如何改善游戏体验。    

NVIDIA NeMo可帮助开发者提供企业级生成式AI模型,包括精确数据管理、模型个性化定制、检索增强生成和加速性能等。最后,包含RTX全局光照 (RTXGI) 和DLSS 3.5等渲染技术的集合,可在游戏和应用中实现实时光线路径追踪。

未经正式授权严禁转载本文,侵权必究。

英伟达

6.7k
  • 英伟达或于12月宣布在泰国投资计划
  • 机构:英伟达将Blackwell Ultra产品更名为B300系列,预计2025年将推动CoWoS-L增长

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

一文了解GTC:英伟达发布最强芯片B200,还有机器人通用大模型及自动驾驶平台更新

英伟达时隔两年发布全新“Blackwell”架构GPU,针对当前火爆的AI大模型进行了大幅优化。

图片来源:英伟达

界面新闻记者 | 彭新 李彪

界面新闻编辑 | 文姝琪

抓住生成式AI机会的英伟达全面出击,为大小挑战者设下新标杆。

随着人工智能革命席卷而来,英伟达的旗舰技术会议GTC已被外界视为“全球AI风向标”,美国时间3月18日,英伟达CEO黄仁勋的开幕演说更是备受外界关注,在此次黄仁勋的主讲环节在美国圣何塞SAP中心举行。

在开场,黄仁勋以“这不是一场音乐会”进行调侃,称在科技业外,仍有来自全球价值百万亿美元的行业从业者出席了会议,他对此感到非常自豪。黄仁勋称,随着ChatGPT的问世,激发了大众对于AI的想象,各种创新应用和创业公司陆续诞生,一个全新的时代已经来临了。

英伟达市值仅2024年就增加了1万亿美元,使其一举成为标准普尔500指数中表现最好的股票,因此市场高度关注GTC相关消息。美股3月18日,英伟达收报884.55美元/股,涨0.7%。

“Blackwell”成为平台:GPU、DPU、NVLink全线更新

市场最为关注,英伟达时隔两年发布全新“Blackwell”架构GPU(图形处理器)如约亮相。

Blackwell用于数据中心,针对当前火爆的AI大模型优化,训练、推理性能和能效均大幅提升,与英伟达Grace CPU、新一代网络芯片等产品一起,面向生成式AI共同组成完整解决方案。黄仁勋还特意称,Blackwell不只是芯片,而是一个全新的平台。至此英伟达从芯片走向了类似苹果的平台之路。

新GPU架构“Blackwell”得名于美国数学家David Harold Blackwell,基于该架构的GPU芯片B200采用台积电4NP制造工艺,英伟达称其可实现在十万亿级参数模型上的AI训练和实时LLM(大语言模型)推理。

B200由两个超大型Die(裸片)封装组合而成,内含超过2080亿个晶体管,是前一代800亿个晶体管的两倍以上,整块芯片还封装有192GB高速HBM3e显存。

在演讲中,英伟达CEO黄仁勋将Blackwell称为“推动新一轮工业革命的引擎”,并定义其为一个平台,基于Blackwell,衍生出GPU、AI超级芯片、服务器、大型计算集群、云服务等多套解决方案。

此前,英伟达发布了“Grace Hopper”超级芯片,随着Blackwell架构GPU发布,英伟达顺势推出“Grace Blackwell”GB200超级芯片,GB200由两个B200 GPU和Grace GPU相连。

英伟达表示,基于Blackwell的处理器,B200为人工智能公司提供了巨大的性能升级,其AI性能为每秒20千万亿次浮点运算,而此前最强的H100为每秒4千万亿次浮点运算,约是其5倍。该系统可以部署一个27万亿参数的模型。而目前据称OpenAI的GPT-4使用了约1.76万亿个参数来训练系统。

一般而言,在数据中心架构中,通用性更高的CPU负责数据的查询、存储;而GPU则更擅长并行计算,因此承担推理的任务。除了CPU、GPU本身带宽大小决定了传输速度,CPU与GPU间的数据传输还存在“带宽瓶颈”,这一瓶颈同样由NVLink连接协议方案所解决。

Blackwell GPU计算性能强劲,但面对大模型时代的GPU集群计算,如何解决芯片之间的数据传输问题已成为瓶颈。对此,英伟达同步推出新一代NVLink连接协议方案和NVSwitch芯片,组成X800系列交换机,大幅提高数据吞吐量至800Gb/s,用来处理GPU之间的数据传输,进一步增强GPU集群扩展性和计算能力。

英伟达还发布了GB200 NVL72,整合英伟达在数据中心硬件方案中GPU、DPU、NVLink等技术的最新成果,构成驱动大语言模型背后的引擎。

GB200 NVL72进入云端,成为云厂商计算实例,黄仁勋在演讲中还发布搭载B100 GPU的AI云服务DGX Cloud。通过与云厂商平台向用户提供能够训练生成式AI大模型,及其他AI应用的算力月租服务,该服务将首先上线亚马逊云、微软Azure和甲骨文云。

B200 GPU将于今年晚些时候推出,英伟达称,包括亚马逊云科技、戴尔科技、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和xAI将计划采用Blackwell产品。

人形机器人基础模型和Isaac机器人平台大更新

英伟达过去针对机器人市场的Isaac 机器人平台也得到重大更新,包括发布了一款基于Thor芯片的新型人形机器人计算机Jetson Thor,以及一系列机器人预训练模型、库和参考硬件,在生成式AI基础模型和仿真工具,以及英伟达算力的支持下,进一步对人形机器人应用优化。

Jetson Thor提供每秒800万亿次8位浮点运算AI性能,可以运行GR00T等多模态生成式AI模型,并大大简化设计和集成工作。

英伟达称,正在为多家人形机器人公司开发一个综合AI平台,如1X Technologies、Agility Robotics、Apptronik、波士顿动力公司、Figure AI、傅利叶智能、Sanctuary AI、宇树科技和小鹏鹏行等。

在黄仁勋的主题演讲过程中,迪士尼生产的使用相关英伟达芯片的Orange和Green机器人也登上了舞台现场亮相。

“开发通用人形机器人基础模型是当今AI领域中最令人兴奋的课题之一。世界各地的机器人技术领导者正在汇集各种赋能技术,致力于在人工通用机器人领域实现突破。”黄仁勋也现场表达了公司对人形机器人研究的支持。

自动驾驶:多项重要合作宣布

黄仁勋在GTC主题演讲中宣布,集中式车载计算平台DRIVE Thor将搭载专为Transformer、大语言模型(LLM)和生成式AI工作负载而打造的全新Blackwell架构。

2015年,英伟达进入车载计算平台领域,推出了初代自动驾驶计算平台DRIVE PX和Tegra系列车载芯片,后陆续发布Xavier芯片、Orin芯片问世,。2022年又在汽车业务增速放缓的情况下,英伟达正式推出新一代自动驾驶计算芯片DRIVE Thor,当时公布的单颗算力高达2000 TOPS,是特斯拉FSD芯片算力的14倍。

多家头部电动汽车制造商在GTC上展示了其搭载DRIVE Thor的下一代AI车型,既包括比亚迪、广汽埃安、小鹏、理想汽车和极氪等众多中国车企,也包括了文远知行等自动驾驶平台公司。

根据弗若沙利文统计数据显示,2022年英伟达出货量占到全球高算力自动驾驶芯片市场份额为82.5%。按照黄仁勋的规划,未来汽车业务将与数据中心、游戏并列成为英伟达的三大支柱业务。

推理微服务成为AI入口:已用于量子计算、医药行业

除了硬件产品,英伟达还与大量与企业合作,推进AI落地。在发布会上,英伟达的推理微服务(NIM)颇具野心,它将作为企业AI的入口。

该服务有望支撑英伟达未来在AI服务上的营收增长,其具体模式为:英伟达提供预训练好的AI模型并开放API(应用程序接口),再由行业客户开发应用,以简化企业自己开发生成式AI应用的成本。

黄仁勋也在现场示范了英伟达内部藉NIM所打造的“芯片设计聊天机器人”,经过数据训练和模型微调后,聊天机器人即可给出符合芯片设计领域的答案,甚至能同步生成所需的程序代码。

在量子计算领域,英伟达宣布推出云量子计算机模拟微服务,帮助研究人员和开发人员在化学、生物学、材料科学等科学领域的量子计算研究,该服务基于开源CUDA-Q量子计算平台,支持用户在云端构建并测试新的量子算法和应用,包括支持量子-经典混合算法编程的模拟器和工具等。与其他云服务不同,英伟达目前还没有量子计算机,但未来它将提供第三方量子计算机的访问。

在医药领域,英伟达宣布旗下包括Parabricks、MONAI、NeMo™、Riva、Metropolis,现已通CUDA-X微服务提供访问,以加速药物研发、医学影像、基因组学分析等医疗工作流程。

英伟达还介绍,其已经推出的25个面向医疗领域的微服务,可以加快医疗企业的转型,包括筛选数万亿种药物化合物以促进医学发展、收集更完善的患者数据以改进早期疾病检测、实现更智能的数字助手等。

长期以来黄仁勋向外强调,摩尔定律已死,计算范式正发生改变,由CPU主导的通用计算转向GPU的加速计算,GPU在行业场景下有大量替代CPU的机会,生成式AI更大大加速了这一进程。

此前英伟达宣布的计算光刻平台cuLitho,已成为一大成功案例,在GTC上,英伟达宣布,台积电和EDA公司新思科技将在生产中使用cuLitho,在生成式AI应用算法帮助下,晶圆厂的芯片生产效率将大幅提高。

数字人和虚拟助手:更真实的游戏体验来了

游戏起家的英伟达,自然也没有忘记人工智能技术在游戏领域大显身手,这次GTC上重点展示的是它的数字人技术。

英伟达数字人平台包括三项主要技术:NVIDIA ACE、NVIDIA NeMo和RTX光线追踪技术,分别通过AI驱动游戏角色语言、语音、动画和图形。

其中,NVIDIA ACE可帮助开发者通过Audio2Face驱动的面部动画以及由Riva自动语音识别(ASR)和文本转语音(TTS)驱动的语音交流,让数字人交互更加生动。英伟达称,NVIDIA ACE允许模型在云端和PC上运行,以确保用户获得最佳体验。此外,全球游戏发行商正评估NVIDIA ACE如何改善游戏体验。    

NVIDIA NeMo可帮助开发者提供企业级生成式AI模型,包括精确数据管理、模型个性化定制、检索增强生成和加速性能等。最后,包含RTX全局光照 (RTXGI) 和DLSS 3.5等渲染技术的集合,可在游戏和应用中实现实时光线路径追踪。

未经正式授权严禁转载本文,侵权必究。