首页 > 编程知识 正文

AI芯片 通俗易懂(AI芯片有哪些)

时间:2023-05-05 02:11:56 阅读:77323 作者:2388

美国西部时间11月12日,2019英特尔人工智能峰会期间(英特尔Ai Summit 2019 )在旧金山举行,雷锋网被邀请参加。 峰会期间,英特尔展示了一系列AI相关新产品及相关进展。 其中出现了面向训练(NNP-T1000 )和推理(NNP-I1000 )的英特尔Nervana神经网络处理器(NNP ),英特尔还推出了新一代Movidius Myriad视觉处理单元。

英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao表示:

随着人工智能的进一步发展,计算硬件和内存将达到临界点。 英特尔Nervana NNP和Movidius Myriad VPU等专用硬件对于在这一领域继续取得重大进展至关重要。 通过采用更高级的系统级人工智能,从“数据到信息的转换”阶段发展到“信息到知识的转换阶段”。

Nervana NNP 已经投入生产并交付

对英特尔来说,Nervana NNP是神经网络处理器的重要产品,可以说是首款AI商用芯片。 而且,该产品从发布、测试、批量生产到应用,实际上经历了很长的产品周期。

新一代Nervana NNP最初登场是在2018年5月。 当时,Naveen Rao在英特尔人工智能开发者大会(AIDevCon 2018 )上发布了新一代神经网络处理器(NNP )芯片,专为机器学习而设计,是英特尔第一款商用NNP芯片,提供给小部分合作伙伴

到了2019年8月,英特尔在热点赛事举办期间发布了更多NNP芯片信息。 其中,它按用途分为Nervana NNP-T和Nervana NNP-I,分别用于训练和推理。

据雷锋网报道,Nervana NNP-T代号Spring Crest采用台湾积体电路制造16纳米调频工艺技术,拥有270亿个晶体管,硅片面积680平方毫米,TensorFlow、paddle pape

Nervana NNP-I,代号为Spring Hill,是专门针对大型数据中心的推理芯片。 该芯片基于10纳米技术和Ice Lake核心构建,由以色列的Haifa构建。 Intel声称可以用最小的能量处理高负载的工作。 ResNet50的效率为4.8TOPs/W,功率范围为10W至50W。

根据公式,英特尔Nervana神经网络训练处理器(英特尔nervanannp-t )在计算、通信和内存之间取得平衡,可实现从小集群到最大规模的pod超级计算机英特尔Nervana神经网络解扰处理器(英特尔nervanaNNP-I )具有高能效、经济高效、灵活的外形规格,可用于执行实际规模的高强度多模式推理这两款产品面向百度、脸书等尖端人工智能客户,根据他们的人工智能处理需求定制开发。

在2019年英特尔人工智能峰会现场,英特尔宣布——新推出的英特尔Nervana神经网络处理器(NNP )已投入生产,并已完成客户交付。 其中,脸书人工智能系统协同设计总监Misha Smelyanskiy表示。

很高兴能与英特尔合作,利用英特尔神经网络推理处理器(NNP-I )部署更快、更高效的推理计算。 最新的深度学习编译器Glow也支持NNP-I。

百度AI研究人员还表示,Church今年7月宣布与英特尔合作,在Nervana NNP-T上展开合作,通过软硬件的合作,实现了以最大效率训练日益增长的复杂模式。 兴奋的Church还宣布,在百度X-Man 4.0的加持下,英特尔的NNP-T进入了市场。

新一代 Movidius VPU 明年见

峰会现场,英特尔发布了新一代Movidius VPU。

新一代英特尔Movidius VPU的代号为Keem Bay,专用于边缘AI,专注于深度学习推理、计算机视觉、媒体处理等,采用全新的高性能体系结构,英特尔开放官方数据显示,速度是NVIDIAtx2的4倍,是华为雾度Ascend 310的1.25倍。 另外,在功率和尺寸上也远远超过了对方。

src="https://p6.toutiaoimg.com/origin/pgc-image/Rhe3yV4AElA3H0?from=pc">

Intel 方面表示,新一代 Movidius 计划于 2020 年上半年上市,它凭借独一无二的高效架构优势,能够提供业界领先的性能:与上一代 VPU 相比,推理性能提升 10 倍以上,能效则可达到竞品的 6 倍。

雷锋网了解到,英特尔曾经在 2017 年 8 月推出一款 Movidius Myriad X 视觉处理器(VPU),该处理器是一款低功耗 SoC,采用了 16nm 制造工艺,由台积电来代工,的主要用于基于视觉的设备的深度学习和 AI 算法加速,比如无人机、智能相机、VR/AR 头盔。

除了新一代 Movidius,英特尔还发布了全新的英特尔 DevCloud for the Edge,该产品旨在与英特尔 Distribution of OpenVINO 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试 AI 解决方案。

另外,英特尔还介绍了自家的英特尔至强可扩展处理器在 AI 方面的进展。

英特尔方面表示,推进深度学习推理和应用需要极其复杂的数据、模型和技术,因此在架构选择上需要有不同的考量。事实上,业界大部分组织都基于英特尔至强可扩展处理器部署了人工智能。英特尔将继续通过英特尔矢量神经网络指令 (VNNI) 和英特尔深度学习加速技术(DL Boost)等功能来改进该平台,从而在数据中心和边缘部署中提升人工智能推理的性能。

英特尔强调称,在未来很多年中,英特尔至强可扩展处理器都将继续成为强有力的人工智能计算支柱。

雷锋网总结

在本次 2019 英特尔人工智能峰会上,Intel 还公布了其在 AI 方面的整体解决方案。实际上,英特尔在 AI 方面的优势不仅仅局限在 AI 芯片本身的突破,更重要的是,英特尔有能力全面考虑计算、内存、存储、互连、封装和软件,以最大限度提升效率和可编程性,并能确保将深度学习扩展到数以千计节点的关键能力。

不仅如此,英特尔还能够借重现有的市场优势将自家在 AI 领域的能力带向市场,实现 AI 的商用落地——值得一提的是,在峰会现场,英特尔宣布,自家的人工智能解决方案产品组合进一步得到强化,并有望在 2019 年创造超过 35 亿美元的营收。

可见,在推进 AI 技术走向商用落地方面,英特尔终于跨出了自信的一步。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。