首页 > 编程知识 正文

对人工智能芯片的一些看法作文,对自主研发人工智能芯片必要性的认识

时间:2023-05-06 19:45:36 阅读:158007 作者:1051

人工智能芯片

2016年,由于阿尔法狗打败了专业的人类围棋棋手,基于“深度学习”的人工智能技术开始为公众所熟知。 其实“深度学习”技术已经发展了将近30年。 当前“深度学习”的实现以神经网络技术为主。 神经网络模拟大脑生物神经网络的连接,通过对多层数字神经网络的理解实现深度学习。 神经网络最有名的是卷积神经网络。 “深度学习”的深度体现在多层神经网络的连接上。 因为第一代机器学习技术的学习网络层数都很浅。

目前人工智能技术的开发主要分为两个方向。 一个是人工智能算法的研究和神经网络的训练另一个方向是实现人工智能算法的加速计算。 由于深度学习,神经网络算法的计算量极大,通用CPU的运算能力无法满足其快速的计算量。 目前,行业解决方案主要包括GPU加速、FPGA加速和专用ASIC加速。 在神经网络计算中,尤其以卷积神经网络(CNN )为主,卷积网络需要运算大量的卷积运算,通过设计卷积硬件加速模块,实现了卷积计算神经网络

在加速计划中,GPU平台的解决方案最为成熟。 目前,GPU加速计划最好的公司是NVIDIA,NVIDIA是以GPU显卡起步的。 近年来,随着人工智能技术的发展,人工智能公司对计算能力的需求不断增加,NVIDIA依靠自身的GPU技术,开发的GPU加速平台被应用于许多人工智能公司。 NVIDIA公司也依靠人工智能的热潮取得了巨大的成长。 但是,GPU的缺点在于他的成本和功耗,现在GPU的价格及其昂贵,可用于人工智能训练的GPU显卡大约上万元。 另外,GPU的功耗也非常大,一个GPU进行人工智能网络训练时的功耗达到100瓦,且GPU的体积巨大。 由于这些缺点,GPU加速平台只能部署在服务器端,并具有专用的服务器盘柜、电源和冷却结构。 GPU加速平台无法部署在PC或移动智能手机等个人消费平台上。

关于FPGA加速和专用ASIC加速,因为其计算结构为神经网络定制,所以在半导体电路级进行了优化,采用了最先进的半导体制造工艺。 因此,专用加速芯片的速度可以达到非常高的频率,消耗功率也可以优化到非常高的水平。 专用加速芯片的常规开发途径是首先验证在FPGA平台上建立的计算加速网络。 初期,FPGA平台可以大幅度提高开发效率,大幅度降低开发成本。 当计算网络在FPGA平台上功能完美时,可以在专用芯片上制作计算网络,大量生成,大大降低芯片的成本。

在FPGA加速领域,老牌FPGA公司Xilinx和Intel (原Altera )推出了自己的人工智能解决方案。 Xilinx推出了dnndk (deepneuralnetworkdevelopmentkit,深度神经网络开发平台)平台。 基于Xilinx的FPGA硬件平台支持tensorflow、caffe、mxnet等通用AI框架,可用于数据中心的AI加速和边缘的英特尔是卷积菜单该工具包在边缘计算中支持CNN的计算,通过使用一般的APP编程接口(API ),在CPU、GPU、FPGA等各种异构平台上的神经网络其他人工智能公司也利用了用FPGA构建的专用人工智能硬件快速电路。

专用ASIC芯片领域最有名的是谷歌的TPU(tensorprocessingunit,昏迷星月处理器),是一种为机器学习定制的芯片,运行效率大大高于GPU,内置的海量计算中国人工智能芯片公司“地平线”主要研发视频识别类人工智能加速芯片,下载已经发布的“征程”和“旭日”系列处理器。 面向智能驾驶、智能相机领域。 寒武纪开发的智能终端处理器IP已成功应用于智能手机芯片,可广泛应用于计算机视觉等领域,提高了视觉终端/车/物/行为/图像/视频等的捕获和即时处理能力。 来自矿山机械的比特大陆也通过在计算芯片领域的积累,设计出自己的云和终端人工智能芯片,可以应用于安全监控、数据中心、超级计算、机器人等领域。 目前,人工智能芯片公司百花齐放,在各个领域持续发力,相互竞争,相互促进。

公众号:关注“数字积木”,获取更多精彩内容、技术干货。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。