当前位置:首页 > 燃气灶 > 文章正文

NVIDIA:合作伙伴在MLPerf中显示出领先的AI机能和多功能性

编辑:[db:作者] 时间:2024-08-25 07:52:12

本日发布的MLPerf基准数据显示,英伟达及其互助伙伴连续供应最佳的人工智能整体演习绩效,并在所有基准中提交了最多的人工智能培训,90%的参赛作品来自生态系统。

NVIDIA:合作伙伴在MLPerf中显示出领先的AI机能和多功能性

NVIDIA AI平台涵盖了MLPerf演习2.0轮中的所有八项基准,突出了其领先的多功能性。

没有其他加速器运行所有基准测试,这些基准测试代表了盛行的人工智能用例,包括语音识别、自然措辞处理、推举系统、目标检测、图像分类等。
自2018年12月提交第一轮MLPerf(人工智能基准的行业标准套件)以来,NVIDIA一贯在这样做。

领先的基准测试结果、可用性

在连续第四次提交MLPerf演习时,基于NVIDIA Ampere架构的NVIDIA A100 Tensor Core GPU连续表现精良。

每个提交者的平台在每个网络上进行演习的最快韶光

赛琳娜-我们的内部人工智能超级打算机,基于模块化NVIDIA DGX SuperPOD,由NVIDIA A100 GPU、我们的软件堆栈和NVIDIA InfiniBand网络供应支持-以最快的速率完成了八项测试中的四项测试。

为了打算每个芯片的性能,此图表将提交者的每次提交标准化为最常见的规模,分数标准化为最快的竞争对手

英伟达A100还连续保持其单芯片领先地位,在八项测试中的六项测试中表现最快。

共有16位互助伙伴利用NVIDIA AI平台提交了这一轮的结果。
个中包括华硕、百度、CASIA(中国科学院自动化研究所)、戴尔科技、富士通、GIGABYTE、H3C、惠普企业、浪潮、KRAI、遐想、MosaicML、Nettrix和Supermicro。

我们的大多数OEM互助伙伴提交了利用NVIDIA认证系统的结果,这些做事器经由NVIDIA验证,为企业支配供应了出色的性能、可管理性、安全性和可扩展性。

许多模型支持真正的AI运用程序

人工智能运用程序可能须要理解用户的口头要求,对图像进行分类,提出建议,并以口头的形式供应相应。

纵然是上面大略的用例也须要近10个模型,这突出了运行每个基准的主要性

这些任务须要多种AI模型按顺序事情,也称为管道。
用户须要快速灵巧地设计、演习、支配和优化这些模型。

这便是为什么多功能性(能够在MLPerf及更高版本中运行每一个模型)以及领先的性能对付将真实天下的AI投入生产至关主要的缘故原由。

利用AI实现ROI

对付客户来说,他们的数据科学和工程团队是他们最宝贵的资源,他们的生产力决定了AI根本举动步伐的投资回报。
客户必须考虑到昂贵的数据科学团队的本钱,这些团队常日在支配AI的总本钱中起着重要浸染,以及支配AI根本举动步伐本身的相对较小的本钱。

人工智能研究职员的生产力取决于快速测试新想法的能力,既须要演习任何模型的多功能性,也须要以最大规模演习这些模型所供应的速率。
这便是为什么组织关注每美元的总体生产率来确定最佳AI平台的缘故原由,这是一个更全面的视图,可以更准确地反响支配AI的真实本钱。

此外,其人工智能根本举动步伐的利用依赖于其可替代性,或在单个平台上加速全体人工智能事情流(从数据准备到演习再到推理)的能力。

有了NVIDIA AI,客户可以在全体AI管道中利用相同的根本架构,重新调度其用场,以知够数据准备、演习和推理之间的不同需求,从而显著提高利用率,从而实现极高的投资回报率。

而且,随着研究职员创造新的人工智能打破,支持最新的模型创新是最大化人工智能根本举动步伐利用寿命的关键。

NVIDIA AI供应了最高的每美元生产率,由于它对每种型号都具有通用性和性能,可以扩展到任何规模,并从端到端加速AI—从数据准备到演习再到推理。

本日的结果最新展示了NVIDIA在迄今为止的每一轮MLPerf演习、推理和HPC中广泛而深入的AI专业知识。

3.5年内性能提高23倍

自我们首次提交A100 MLPerf以来的两年中,我们的平台的性能提高了6倍。
不断优化我们的软件栈有助于推动这些收益。

自MLPerf问世以来,NVIDIA AI平台在3.5年的韶光内实现了23倍于基准的性能,这是GPU、软件和大规模改进的全栈创新的结果。
正是这种对峙异的持续承诺让客户确信,他们本日投资的人工智能平台将连续向前发展,以支持最前辈的技能。

此外,3月份宣告的NVIDIA Hopper架构有望在未来的MLPerf回合中实现性能的又一次巨大飞跃。

我们是怎么做到的

软件创新连续开释NVIDIA安培体系构造的更多性能。

例如,CUDA Graphs(一种有助于最小化跨多个加速器运行的作业的启动开销的软件)在我们的提交中被广泛利用。
库中的优化内核(如cuDNN)和DALI中的预处理解锁了额外的加速。
我们还对硬件、软件和网络进行了全面的堆栈改进,如NVIDIA Magnum IO和SHARP,这将一些AI功能卸载到网络中,以提高性能,尤其是在规模上。

我们利用的所有软件都可以从MLPerf存储库得到,因此每个人都可以得到天下一流的结果。
我们不断地将这些优化折叠到NGC上可用的容器中,NGC是我们的GPU运用程序软件中央,并为NVIDIA AI Enterprise供应优化的软件,由NVIDIA完备支持。

A100发布两年后,NVIDIA AI平台连续供应MLPerf 2.0中的最高性能,并且是唯一一个在每个基准上提交的平台。
我们的下一代Hopper架构有望在未来的MLPerf回合中实现又一次巨大飞跃。

我们的平台对付任何规模的每个模型和框架都是通用的,并且供应了可更换性来处理AI事情负载的每个部分。
每个紧张的云和做事器制造商都可以利用它。

本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/rqz/184678.html

XML地图 | 自定链接

Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码

声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com