品牌价值网_中国品牌价值排行榜-英伟达黄仁勋:人工智能正在创造新计算时代
中国品牌价值评价标准

当前位置:首页 > 国际动态>正文

英伟达黄仁勋:人工智能正在创造新计算时代

2023-05-30 18:02:51    来源:www.bvrcn.com 品牌价值网

英伟达黄仁勋:人工智能正在创造新计算时代

现在芯片行业俨然成为代表前沿科技的焦点行业之一,自从ChatGPT引领人们对人工智能(AI)关注以来,以英伟达(NVIDIA)为首的芯片企业备受关注,英伟达的CEO黄仁勋近日在一场演讲中称,人类进入了人人都能成为程序员的新计算时代(new computing era),英伟达集团推出了一个新的超级计算机平台,以保持在人工智能革命的前沿。

黄仁勋.jpg

黄仁勋在中国台湾的演讲中指出,传统科技行业无法跟上AI的进步步伐,并补充说该技术大大降低了计算机编程的技术门槛,以生成式自然语言处理为特色的大型人工智能模型,已经可以实现通过有限的关键词来完成复杂的操作,没有编程基础的人也可以通过输入关键信息,指导人工智能编程,而且还可以通过编译器反馈的错误信息交给人工智能迭代,不断进行调试,生成能够正常完成目标操作的应用程序。

NVIDIA_logo_R.jpg

正如黄仁勋所说,当代的人工智能语言模型,加速与计算机的结合,不异于从头开始的发明,只要对计算机发出指令,每个人都可能成为程序员。ChatGPT 可以生成代码,减少创建软件所需的人力,这是一种彻底改变编程的开发方式。

得益于人工智能爆红后带来的关注,资本市场非常看好芯片行业的发展势头。此前 Nvidia 公布了销售快速增长的预测,推动股价飙升,使其有望成为全球第一家价值万亿美元的半导体股票。由于 Open AI 的 ChatGPT 的爆炸式增长唤醒了投资者对生成 AI 的热情,这家芯片制造商的股价自年初以来已上涨 172%。

当前人工智能市场发展非常火热,而承担算力的计算芯片是人工智能行业重要的基础设施。当前市场对英伟达数据中心的需求飙升,包括以H100为代表的高级图形处理器单元 (GPU)芯片,可大大缩短训练所谓的大型语言模型(如 ChatGPT)所需的时间。 在线提供的大量开源软件也为代码生成 AI 系统提供了肥沃的训练场。OpenAI 的 Codex 系统部分接受过开源软件的训练,它会提示软件开发人员下一步要编写哪些代码行。

GitHub 是微软为开发人员提供的一项服务,它利用 Codex人工智能,将创建新代码所需的时间减半,这是在十年来为提高生产力所做的基本无效的努力之后,效率上的巨大飞跃。

黄仁勋还宣布了一个名为 DGX GH200 的新人工智能超级计算机平台,以帮助科技公司构建类似于 OpenAI 的 ChatGPT 的生成人工智能模型。元宇宙公司(Meta)、微软(Microsoft)和谷歌云(Google)是首批有望使用该超级计算机的客户。

同时,英伟达还宣布与日本软银(SoftBank)合作,将其超级芯片引入该技术集团在该国的数据中心,试图嵌入数据中心运营商对其产品的依赖。 

黄仁勋出生于台湾省台南市,最终移居美国,在 Advanced Micro Devices 担任微处理器设计师后,他于 1993 年在美国共同创立了 Nvidia。

英伟达推出DGX GH200系统

1685440750481034.jpg

2023年5月28日,在 COMPUTEX 2023 上,NVIDIA 发布了 NVIDIA DGX GH200,这标志着 GPU 加速计算的又一次突破,为要求最苛刻的巨型 AI 工作负载提供支持。 除了描述 NVIDIA DGX GH200 架构的关键方面外,本文还讨论了 NVIDIA Base Command 如何实现快速部署、加速用户入职并简化系统管理。

过去 7 年来,GPU 的统一内存编程模型一直是复杂加速计算应用取得各种突破的基石。 2016 年,NVIDIA 推出了 NVLink 技术和带有 CUDA-6 的统一内存编程模型,旨在增加 GPU 加速工作负载的可用内存。

从那时起,每个 DGX 系统的核心都是基板上的 GPU 复合体,通过 NVLink 互连,其中每个 GPU 都可以以 NVLink 速度访问对方的内存。 许多此类带有 GPU 复合体的 DGX 与高速网络互连,形成更大的超级计算机,例如 NVIDIA Selene 超级计算机。 然而,一类新兴的巨型万亿参数人工智能模型要么需要几个月的训练时间,要么即使在当今最好的超级计算机上也无法解决。

为了帮助需要先进平台来解决这些非凡挑战的科学家,NVIDIA 将 NVIDIA Grace Hopper Superchip 与 NVLink 开关系统配对,在 NVIDIA DGX GH200 系统中整合了多达 256 个 GPU。 在 DGX GH200 系统中,GPU 共享内存编程模型可通过 NVLink 高速访问 144 TB 内存。

与单个 NVIDIA DGX A100 320 GB 系统相比,NVIDIA DGX GH200 通过 NVLink 为 GPU 共享内存编程模型提供了近 500 倍的内存,形成了一个巨大的数据中心大小的 GPU。 NVIDIA DGX GH200 是第一台突破 GPU 通过 NVLink 访问内存的 100 TB 障碍的超级计算机。

NVIDIA DGX GH200系统架构

NVIDIA Grace Hopper 超级芯片和 NVLink Switch System 是 NVIDIA DGX GH200 架构的构建块。NVIDIA Grace Hopper 超级芯片使用 NVIDIA NVLink-C2C 结合了 Grace 和 Hopper 架构,以提供 CPU + GPU 一致性内存模型。 由第四代 NVLink 技术提供支持的 NVLink 开关系统将 NVLink 连接扩展到超级芯片,以创建无缝、高带宽、多 GPU 系统。

NVIDIA DGX GH200 中的每个 NVIDIA Grace Hopper 超级芯片都有 480 GB LPDDR5 CPU 内存,每 GB 的功率是96 GB的快速 HBM3 的八分之一。 NVIDIA Grace CPU 和 Hopper GPU 与 NVLink-C2C 互连,以五分之一的功率提供比 PCIe Gen5 多 7 倍的带宽。

NVLink 交换机系统形成了一个两级、无阻塞、树形 NVLink 结构,可在 DGX GH200 系统中完全连接 256 个 Grace Hopper 超级芯片。 DGX GH200 中的每个 GPU 都可以 900 GB/s 访问其他 GPU 的内存和所有 NVIDIA Grace CPU 的扩展 GPU 内存。

目标用例和性能优势

GPU 内存的代际飞跃显着提高了受 GPU 内存大小瓶颈的 AI 和 HPC 应用程序的性能。 许多主流 AI 和 HPC 工作负载可以完全驻留在单个 NVIDIA DGX H100 的聚合 GPU 内存中。 对于此类工作负载,DGX H100 是性能效率最高的训练解决方案。

其他工作负载——例如具有 TB 级嵌入式表的深度学习推荐模型 (DLRM)、TB 级图形神经网络训练模型或大型数据分析工作负载——使用 DGX GH200 可实现 4 至 7 倍的加速。 这表明 DGX GH200 是更高级的 AI 和 HPC 模型的更好解决方案,这些模型需要海量内存来进行 GPU 共享内存编程。

在2023年3月18日正式发布的“(大观·可惟为)世界品牌价值900强”排行榜上,英伟达(NVIDIA)的品牌价值为5703.76 亿元人民币,排名第34位。

1661245870642032.jpg

www.bvrcn.com 品牌价值网



作者:Snow



相关新闻全部阅读

阅读下一篇

美国电话电报公司 (AT&T) 品牌故事

美国电话电报公司(AT&T)是一家创建于1877年,总部位于得克萨斯州圣安东尼奥的美国电信公司,曾长期垄断美国长途和本地电话市场。

返回首页
返回新闻页面