首页
搜索 搜索
当前位置:产品信息 > 正文

11分钟训完GPT-3!英伟达H100 横扫MLPerf 8项基准测试,下一代显卡25年发布_环球微头条

2023-06-30 00:06:22 新智元公众号

【新智元导读】黄老板又赢麻了!在最新的MLPerf基准测试中,H100成功创下8项测试纪录。而外媒透露,下一代消费级显卡或在2025发布。

最新MLPerf训练基准测试中,H100GPU在所有的八项测试中都创下了新纪录!

如今,NVIDIA H100几乎已经统治了所有类别,并且是新LLM基准测试中使用的唯一 的GPU。


(资料图)

3,584个H100GPU群在短短11分钟内完成了基于GPT-3的大规模基准测试。

MLPerf LLM基准测试是基于OpenAI的GPT-3模型进行的,包含1750亿个参数。

Lambda Labs估计,训练这样一个大模型需要大约3.14E23FLOPS的计算量。

11分钟训出GPT-3的怪兽是如何构成的

在LLM和BERT自然语言处理 (NLP) 基准测试中排名最高的系统,是由NVIDIA和Inflection AI联合开发。

由专门从事企业级GPU加速工作负载的云服务提供商CoreWeave托管。

该系统结合了3584个NV编程客栈IDIA H100加速器和896个Intel Xeon Platinum8462Y+处理器。

因为英伟达在H100中引入了新的Transformer引擎,专门用于加速Transformer模型训练和推理,将训练速度提高了6倍。

CoreWeave从云端提供的性能与英伟达从本地数据中心运行的AI超级计算机所能提供的性能已经非常接近了。

这得益于CoreWeave使用的NVIDIA Quantum-2InfiniBand网络具有低延迟网络。

随着参与训练的H100GPU从数百个扩展到3000多个。

良好的优化使得整个技术堆栈在要求严苛的LLM测试中实现了近乎线性的性能扩展。

如果将GPU的数量降低到一半,训练相同的模型时间会增加到24分钟。

说明整个系统的效率潜力,随着GPU的增加,是超线性的。

最主要的原因是,英伟达从GPU设js计之初就考虑到了这个问题,使用NVLink技术来高效实现了GPU之间的通信。

在参与测试的90个系统中,有82个系统都使用了英伟达的GPU进行加速。

单卡训练效率

系统集群训练时间对比

英特尔参加测评的系统使用64到96个不等的Intel Xeon Platinum8380处理器和256到389个不等的Intel Habana Gaudi2加速器。

然而,英特尔提交的GPT-3的训练时间为311分钟。

成绩和英伟达相比就稍微有点惨不忍睹了。

分析师:英伟达优势过大

行业分析师认为,英伟达的在GPU上的技术优势是非常明显的。

而它作为AI基础设施提供商,在行业中的主导地位还体现在英伟达多年建立起php来的生态系统粘性上。

AI社区对英伟达的软件的依赖性也非常强。

几乎所有AI框架都基于英伟达提供的底层CUDA库和工具。

而且它还能提供全堆栈的AI工具和解决方案。

除了为AI开发人员提供支持之外,英伟达还继续投资用于管理工作负载和模型的企业级工具。

在可预见的未来,英伟达在行业的领先地位将会非常稳固。

分析师还进一步指出。

MLPerf测试结果中所展现的,NVIDIA系统在云端进行AI训练的强大功能和效率,才是英伟达「战未来」的最大本钱。

下一代Ada Lovelace GPU,2025年发布

Tom"s Hardware自由撰稿人Zhiye Liu也于近日发文,介绍了下一代英伟达Ada Lovelace显卡的计划。

H100训练大模型的能力,毋庸置疑。

只用3584个H100,短短11分钟内,就能训练出一个GPT-3模型。

在最近的新闻发布会上,英伟达分享了一份新路线图,详细介绍了下一代产品,包括GeForce RTX40系列Ada Lovelace GPU的继任者,而前者,是当今最好的游戏显卡。

根据路线图,英伟达计划在2025年推出「Ada Lovelace-Next」显卡。

如果继续沿用当前的命名方案,下一代GeForce产品应该是作为GeForce RTX50系列上市。

根据南美黑客组织LAPSU$得到的信息,Hopper Next很可能被命名为Blackwell。

在消费级显卡上,英伟达保持着两年一更新的节奏。

他们在2016年推出了Pascal,在2018年推出了Turing,在2020年推出了Ampere,在2022年推出了Ada Lovelace。

如果这次Ada Lovelace的继任者会在2025年推出,英伟达无疑就打破了通常的节奏。

最近的AI大爆发,产生了对英伟达GPU的巨大需求,无论是最新的H100,还是上一代的A100。

根据报道,某大厂今年就订购了价值10亿美元的Nvidia GPU。

尽管有出口限制,但我国仍然是英伟达在全世界最大的市场之一。

(据说,在深圳华强北电子市场,就可以买到少量英伟达A100,每块售价为2万美php元,是通常价格的两倍。)

对此,英伟达已经对某些AI产品做了微调,发布了H100或A800等特定SKU,以满足出口要求。

Zhiye Liu对此分析道,换个角度看,出口法规其实是有利于英伟达的,因为这意味着芯片制造商客户必须购买更多原版GPU的变体,才能获得同等的性能。

这也就能理解,为什么英伟达会优先考虑生成计算GPU,而非游戏GPU了。

最近的报道显示,英伟达已经增加了计算级GPU的产量。

没有面临来自AMD的RDNA3产品堆栈的激烈竞争,英特尔也没有对GPU双头垄断构成严重威胁,因此,英伟达在消费侧可以拖延。

最近,Nvidia通过GeForce RTX4060和GeForce RTX4060Ti,将其GeForce RTX40系列产品堆栈又扩大了。

GeForce RTX4050以及顶部的RTX4080Ti或GeForce RTX4090Ti等,都有潜力。

如果迫不得已,英伟达还可以从旧的Turing版本中拿出一个产品,更新Ada Lovelace,给它封个「Super」待遇,进一步扩展Ada阵容。

最后,Zhiye Liu表示,至少今年或明年,Lovelace架构不会真正更新。

参考资料:

https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/