英特尔推出云端到边缘的全新AI硬件 加速AI开发、部署和性能提升
旧金山2019年11月13日 /美通社/ — 在2019英特尔人工智能峰会期间(Intel AI Summit 2019),英特尔展示了一系列新产品进展,旨在加速从云端到边缘的人工智能系统开发和部署,迎接下一波人工智能浪潮的到来。英特尔展示了面向训练 (NNP-T1000) 和面向推理 (NNP-I1000) 的英特尔® Nervana™ 神经网络处理器 (NNP)。作为英特尔为云端和数据中心客户提供的首个针对复杂深度学习的专用 ASIC芯片,英特尔 Nervana NNP具备超高扩展性和超高效率。英特尔还发布了下一代英特尔® Movidius™ Myriad™ 视觉处理单元 (VPU),用于边缘媒体、计算机视觉和推理应用。
英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao表示:“随着人工智能的进一步发展,计算硬件和内存都将到达临界点。如果要在该领域继续取得巨大进展,专用型硬件必不可少,如英特尔 Nervana NNP 和 Movidius Myriad VPU。采用更先进的系统级人工智能,我们将从‘数据到信息的转换’阶段发展到‘信息到知识的转换’阶段。”
随着这些产品的发布,英特尔人工智能解决方案产品组合进一步得到强化,并有望在2019年创造超过35亿美元的营收。英特尔人工智能产品组合的广度和深度都堪称行业之最,能够帮助客户在从云端到边缘的所有设备和各个范围内,进行人工智能模型的开发和部署。
新推出的英特尔 Nervana神经网络处理器现已投入生产并完成客户交付,它是系统级人工智能解决方案的一部分。该解决方案提供由开放组件和深度学习框架集成开发而成的完整软件堆栈,能够充分利用硬件性能。英特尔 Nervana神经网络训练处理器(Intel Nervana NNP-T)在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。英特尔 Nervana神经网络推理处理器(Intel Nervana NNP-I)具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。
Facebook人工智能系统协同设计总监Misha Smelyanskiy表示:“我们非常高兴能够与英特尔合作,利用英特尔神经网络推理处理器(NNP-I)部署更快、更高效的推理计算。同时,我们最新的深度学习编译器Glow也将支持NNP-I。”
此外,下一代英特尔 Movidius VPU 计划于 2020 年上半年上市,凭借独一无二的高效架构优势,能够提供业界领先的性能:与上一代VPU相比,推理性能提升10倍以上,能效则可达到竞品的 6 倍。英特尔还发布了全新的英特尔® DevCloud for the Edge,与英特尔® Distribution of OpenVINO™ 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI 解决方案。
推进深度学习推理和应用需要极其复杂的数据、模型和技术,因此在架构选择上需要有不同的考量。事实上,业界大部分组织都基于英特尔®至强®可扩展处理器部署了人工智能。英特尔将继续通过英特尔®矢量神经网络指令 (VNNI) 和英特尔®深度学习加速技术(DL Boost)等功能来改进该平台,从而在数据中心和边缘部署中提升人工智能推理的性能。在未来很多年中,英特尔至强可扩展处理器都将继续成为强有力的人工智能计算基石。
对于有着最先进深度学习训练需求的英特尔客户来说,他们要求性能每 3.5 个月提升一倍,而这一类突破只有借助一系列人工智能解决方案才能实现,比如英特尔人工智能解决方案。英特尔有能力全面考虑计算、内存、存储、互连、封装和软件,以最大限度提升效率和可编程性,并能确保将深度学习扩展到数以千计节点的关键能力,进而扩大知识革命的规模。
更多资料请参考: 英特尔人工智能峰会新闻资料包|英特尔的人工智能|Hot Chip:英特尔推动人工智能无处不在