Home » 英伟达发布人工智能新硬件、软件和服务

英伟达发布人工智能新硬件、软件和服务

by Tim

英伟达(Nvidia)本周展示了其在人工智能领域的实力,推出了一系列下一代产品,以迎接人工智能新时代的到来。从它所描述的突破性人工智能超级芯片到更直观的开发者工具,Nvidia 显然打算继续成为推动人工智能革命的引擎。

今年,Nvidia 在 SIGGRAPH 2023(专门讨论计算机图形技术和研究的年度会议)上的演讲几乎完全是关于人工智能的。Nvidia 首席执行官黄仁勋(Jensen Huang)表示,生成式人工智能代表着一个类似于几十年前互联网革命的拐点。他说,世界正在迈向一个新时代,在这个时代里,大多数人与计算机之间的交互都将由人工智能驱动。

Huang说:”每一个应用程序、每一个数据库,无论你在计算机中与什么进行交互,你都可能首先与一个大型语言模型进行交互,”



通过将软件与专用硬件相结合,Nvidia 将自己定位为实现人工智能全部潜力的缺失环节。

用于人工智能训练的Grace Hopper超级芯片亮相

本次展会的明星产品是全新的格雷斯-霍珀超级芯片 GH200,它是首款配备高带宽内存 3e(HBM3e)的 GPU。HBM3e 的带宽高达 2TB/s,是上一代 HBM2e 的近三倍。

Nvidia 将其 Grace Hopper 芯片定义为 “专为巨型人工智能和高性能计算(HPC)应用而设计的加速 CPU”。该芯片是Nvidia的Grace(高性能CPU)和Hopper(高性能GPU)架构相结合的产物,其名称令人联想到这位著名的美国女计算机科学家。

黄晓庆表示,GH200 在大型人工智能模型方面的训练性能是 Nvidia 旗舰 A100 GPU 的六倍。GH200预计将于2024年第二季度上市。

“GH200是用于训练和推理的新引擎,”Huang说,并补充说,”未来的前沿模型将以这种方式构建”。他说,这种新型超级芯片 “甚至有可能运行《孤岛惊魂》”–一款对硬件要求极高的第一人称射击视频游戏。

Ada Lovelace GPU 架构进入工作站


英伟达还为家庭用户带来了一些新消息。这家芯片制造商发布了基于 Ada Lovelace 架构的最新 RTX 工作站 GPU:RTX 5000、RTX 4500 和 RTX 4000。这些 GPU 拥有多达 7680 个 CUDA 内核,性能是上一代板卡的 5 倍,适用于人工智能开发、3D 渲染、视频编辑和其他要求苛刻的专业工作流程。

旗舰产品 RTX 6000 Ada 仍然是需要最高性能的专业人士的首选。不过,新产品系列将 Ada Lovelace 架构扩展到了更广泛的用户。RTX 4000、4500 和 5000 将于 2022 年第三季度开始在主要原始设备制造商处发售。

不过,这些新产品的价格并不便宜。RTX 4000 的起价为 1250 美元,RTX 5000 的起价约为 4000 美元。

针对将人工智能计划提升到新水平的专业人士和企业,Nvidia 推出了全新的数据中心级 GPU Nvidia L40。L40 拥有多达 18176 个 CUDA 内核和 48 GB 的 vRAM,其 AI 训练性能比 A100 高出 9.2 倍。

Nvidia表示,全球服务器制造商计划在其系统中提供L40,使企业能够以最佳效率和成本节约来训练巨大的人工智能模型。与 Nvidia 软件搭配使用,L40 可为企业拥抱人工智能提供完整的解决方案。

云原生微服务提升视频通信水平

为了继续推动视频应用的发展,Nvidia 还发布了一套新的 GPU 加速软件开发工具包和一项名为 Maxine 的云原生视频编辑服务。

Maxine 由人工智能提供支持,具有降噪、超分辨率升级和视频通话模拟眼神接触等功能,让远程用户几乎可以在任何地方进行自然对话。

Nvidia 表示,视觉故事合作伙伴已将 Maxine 集成到视频会议和视频编辑等工作流程中。

工具

工具包简化了生成式人工智能开发


最后,Nvidia 宣布即将发布 AI Workbench,这是一个可简化生成式 AI 模型的开发、测试和部署的统一平台。

AI Workbench 通过提供单一界面来管理跨机器的数据、模型和资源,实现了从本地工作站到云基础设施的无缝协作和扩展。

Nvidia公司表示,通过其最新推出的一系列硬件、软件和服务,该公司打算通过为解决人工智能诸多复杂问题而构建的全面技术堆栈,加快企业对人工智能的采用。

Related Posts

Leave a Comment