环球科创网

英特尔能在AISpace与NVIDIA竞争吗?

更新时间:2021-10-01 10:14:00

导读 大家好,我是本栏目的编辑郝帅,现在我给大家讲解一下上面的问题。在过去的几年里,英特尔(INTC)一直将重心从个人电脑转移到以数据为中心的

大家好,我是本栏目的编辑郝帅,现在我给大家讲解一下上面的问题。在过去的几年里,英特尔(INTC)一直将重心从个人电脑转移到以数据为中心的业务。它正在寻求利用未来的技术,如人工智能、自动驾驶汽车和5G网络基础设施。英伟达(NVDA)是人工智能领域的领导者。英特尔已将英伟达确定为其人工智能竞争对手,因为数据中心更喜欢使用其特斯拉GPU(图形处理单元)来处理其人工智能工作负载。英特尔试图通过其Altera现场可编程门阵列、至强融核处理器和传统酷睿处理器与NVIDIA的特斯拉GPU竞争。

为了加快在AI领域的努力,英特尔资本收购了以色列的人工智能初创公司Habana Labs和NeuroBlade,并于2016年收购了AI初创公司Nervana Systems。在Hot Chips研讨会上,英特尔发布了首款基于AI的Nervana NNP(神经网络处理器):NNP -T用于训练,NNP-I用于推理。尽管拥有自己的制造设施,英特尔仍在TSM的16纳米CLN16FF处理器上构建这些nnp。原因是在英特尔收购之前,Nervana Systems已经开始在TSMC的节点上制造NNP芯片。制造设施的任何变化都可能导致产品延迟、产量低和产品质量差。因此,英特尔决定继续与TSMC合作。

英特尔深度学习培训和推理。

到目前为止,英特尔正在优化其现有的通用至强处理器,用于深度学习培训和推理。这种技术效率低下,因此它开发了一种特殊的处理器,以在各种类型的DL模型中提供灵活性和效率。

英特尔NNP-T(代号为Spring Crest)是一款可扩展的16纳米处理器,拥有24个张量内核,专门用于AI工作负载。甚至NVIDIA的Volta和Turing GPU以及谷歌的定制张量处理单元都将使用AI的张量核心。NNP-T拥有32 GB的HBM2(高带宽内存),可以提供119 TOPS(理论运算每秒)的性能。CPU支持x16 PCIe 4.0(快速外设部件互连)连接,预计功耗为150-250瓦。Nervana Systems使用TSMC先进的基于芯片的衬底上芯片封装,将所有这些组件连接在一个芯片上。

英特尔的NNP-T平衡了内存、处理器和网络,使其能够在给定的功耗预算内,在更大的模型和数据集上训练网络。NNP-T具有四通道四通道小型可插拔网络端口,使用户能够在同一机箱上将多个NNP-T芯片连接在一起。NVIDIA也提供了这样的功能,消费者可以通过它连接多个特斯拉GPU。

与NNP-T(从头开始建造)不同,NNP-I(代号Spring Hill)是一款改进的10 nm冰湖处理器。NNP-I有12个支持各种指令格式的推理机,可高度编程。它有四个64 GB LPDDR4x(低功耗动态随机存取存储器)模块,用于高速内存带宽。它的功耗为10-50瓦,支持PCIe 3.0和4.0。NNP-I的性能为每瓦4.8 TOPS。百度用的是NNP-T,脸书用的是NNP-I.英特尔尚未宣布何时推出其NNP芯片。

英伟达仍然是AI的领导者。

英特尔的NNP芯片是其首款基于AI的芯片。相比之下,NVIDIA推出了第三代AI架构图灵(仅次于Pascal和Volta)。图灵GPU包括用于AI和DL工作负载的Tensor内核和用于光线跟踪和渲染的RT内核。英伟达还报告了AI和DL的关键里程碑。

根据NVIDIA 8月13日的博文,“拥有92个DGX-2H节点的NVIDIA DGX superpad通过在短短53分钟内训练BERT-Large(来自transformer的双向编码器)创造了新的记录。”Bert-Large是世界上最大的基于transformer的语言模型。与行业的10毫秒相比,训练好的模型只需2毫秒就可以推断出来。英特尔在构建基于AI的芯片方面还有很长的路要走,这些芯片实际上可以与NVIDIA GPUs竞争。

AMD在AI方面能和英特尔竞争吗?

虽然英特尔通过特殊的NNP芯片在AI领域取得了进步,但AMD正在寻求利用AI的机会。一方面,AMD在传统x86 CPU市场领先英特尔。另一方面,AMD在未来的AI技术上落后于英特尔。AMD要在人工智能领域取得进步还有很长的路要走,但它有技术和能力成为关键人才。目前AMD在CPU市场与英特尔竞争,在GPU市场与NVIDIA竞争。未来,我们可以看到AMD在AI市场与英特尔、英伟达展开竞争。

免责声明:本文由用户上传,如有侵权请联系删除!