环球科创网

NVIDIA抨击会话人工智能培训的记录

更新时间:2022-12-02 16:20:42

导读 人工智能(AI)似乎正在侵入我们生活的方方面面,从支持部分和全部自动驾驶汽车,到为我们使用的搜索引擎提供动力,以及更平凡的任务,例如在

人工智能(AI)似乎正在侵入我们生活的方方面面,从支持部分和全部自动驾驶汽车,到为我们使用的搜索引擎提供动力,以及更平凡的任务,例如在智能手机上运行算法以优化电池寿命。人工智能可用于增强我们每天执行的许多任务,而NVIDIA希望借助其特斯拉GPU加速器。

对于提升成熟的一个重要领域是会话AI。虽然今天的数字助理可以与他们的人类操作员“交谈”,但他们的语音表现和理解能力往往是笨拙的,而不是完全像人一样。这就是NVIDIA在使用变形金刚双向编码器表示(BERT)语言模型的会话AI方面取得突破的地方。

不可否认,NVIDIA拥有一些强大的处理能力,可以让大公司为全球客户提供最先进的语言理解。对于BERT培训,NVIDIA部署了一个DGX SuperPOD,它由92个NVIDIA DGX-2H系统组成,配备了总共1,472个Tesla V100GPU。

凭借这种强大的功能,NVIDIA能够在短短53分钟内完成BERT-Large培训。从正确的角度来看,BERT-Large培训绩效通常以天为单位进行衡量。此外,NVIDIA表示它能够显着改善推理时间,将BERT-Base SQuAD数据集推断从40毫秒减少到仅2.2毫秒。据NVIDIA称,在实时应用方面,任何不到10毫秒的时间都是可取的。

那么,这对我们这个最终用户意味着什么呢?嗯,这意味着我们将有更好的表现和更智能的AI聊天机器人,在输入请求时更相关的搜索结果,以及像Alexa,Siri,Cortana和Google Assistant这样的数字助理可以在“思考”时处理我们的请求更像是人类。这是否意味着现实生活中的JARVIS很快就能掌握在我们手中?我们只需看看......

毫不奇怪,微软是NVIDIA对话人工智能进步的早期受益者之一。“通过与NVIDIA的密切合作,Bing进一步优化了使用NVIDIA GPU的流行自然语言模型BERT的推理,这是Azure AI基础设施的一部分,这导致Bing在去年部署的搜索质量排名最大,”Rangan Majumder说道。 ,团队项目经理,微软Bing。

“与使用基于CPU的平台相比,使用Azure NVIDIA GPU进行推理时,我们实现了两倍的延迟减少和五倍的吞吐量提升。”

免责声明:本文由用户上传,如有侵权请联系删除!