首页 > 编程知识 正文

中国芯片突破2nm(2038s芯片刷新率)

时间:2023-05-04 05:44:34 阅读:80779 作者:550

智东西(公众号: zhidxcom )文|司北

3月15日,由智东西主办、AWE与极果联合主办的AI芯片创新峰会在上海成功举行! 参加这次峰会的参加者约涵盖4500家企业,参加者非常专业,其中总监以上级别占62%,现场实际参加者超过1800人。

在大会现场,20余人的人工智能和AI芯片行业汇聚一堂,系统地探讨了AI芯片在体系结构创新、生态建设、场景落地等方面的技术前景和产业趋势。

探境科技创始人兼首席执行官物安静的芝麻

凭借其创新的存储优先架构(SFA ),环境探测技术去年在a轮完成了亿元融资,是中国新崛起的AI芯片hmdmj的力量之一。 在大会现场,探险科技创始人兼首席执行官安静的芝麻进行了主题为《基于存储优先架构的AI芯片使能前端智能》的演讲。

由于AI神经网络数据量大,具有高并发性、高耦合性等特性,造成了AI芯片的高带宽访问、数据之间的相关耦合性等问题,在俊秀的精灵架构下,目前AI芯片普遍“罢工”

安静的芝麻认为,本质上AI计算的中心问题是“如何高效地将数据发送到计算单位”,而不是如何增加更多的AI计算资源。

在那里,去年童子军发表了存储优先体系结构(SFA )。 这是与俊秀的精灵不同的AI芯片架构,从数据层和计算层间通过数据路径进行节点间的数据移动。

该体系结构的本质是图形计算,控制器在动态运行中,通过了解哪些数据和哪些操作员需要具有一定的相关关系,构建更加合理的网络路径。

这样,SFA体系结构带来的好处包括:可以将数据访问量减少10~100倍,可以将存储子系统的功耗减少10倍以上,28nm条件下的计算资源利用率达到80%,芯片面积大幅缩小

安静的芝麻还说,SFA还可以实现通用型的AI芯片,不仅可以支持任意已知的神经网络,而且与GPU具有同等的兼容性,神经网络的参数、数据类型没有限制,支持多种应用场景

附有探险科技创始人兼首席执行官安静的芝麻演讲的实录

安静的芝麻:大家都很好! 刚才,醉醺醺的硬币将替代GPU作为提高能源效率的工具,包含从云向终端的扩展、终端从小可穿戴、从大到小的安全对策、自动驾驶等应用场景,是各种各样的APP序列所以我不会在这里重复这些应用场景的情况。

最近,很多AI芯片相继进入这个领域,但这里有很多机会,目的是使AI芯片更强大、更容易使用、更低功耗。 今天上午,慷慨大神提到了AI芯片从0.5发展到2.0。 其中需要很多创新,基于非常基础的芯片基础结构。 在此分享一些勘探技术在这方面的创新。

去年,发表了存储设施体系结构(SFA )。 由于该体系结构具有非常高的领导地位,许多朋友都感兴趣和兴趣,今天让我们先简要回顾一下什么是SFA。

事先预告一下,以下内容可能偏向于硬核,但我要谈谈深刻的技术要点。 深度学习给芯片设计带来了巨大的挑战。 深度学习的数据量非常大,包括训练过的权重和执行的动态中间数据。

神经网络的运算主要是卷积,左边是单层卷积,但实际上神经网络实际使用的是右边的立体卷积。 立体卷积是多通道的二维卷积,具有非常强的耦合性,其数据的连接关系和重用会带来很大的问题。

通常,进行卷积运算的第一种方法是直接进行卷积运算,设计比较硬核的加速器。 该方案在传统的通信芯片设计中被采用,另一种方法是采用数学变换方案将卷积变换为矩阵,可以通过不同的卷积大小通用地应对。

src="https://p6.toutiaoimg.com/origin/pgc-image/e661d1d5e2a440d78f57fda614bae7c1?from=pc">

在这几种常见的方法中,我们提到的问题都存在,包括高并发、高耦合,大量的数据引发了高带宽存取、以及数据间的相关耦合性,带来了一个“存储墙”的问题。

在现在的学术界、工业界,“存储墙”都是热点的话题,我们也看到了很多使用试图破解“存储墙”的不同方法。“存储墙”带来的瓶颈是性能跟功耗两方面的。最开始需要通过外存和内存之间交换数据,这一步功耗比较大,第二步是在存储器的数据排序,如何高效地填入到计算单元,这是第二个非常重要的难点。

这个问题我们可以简化抽象成用EU是计算单元,Memory是所有的存储。本质上AI计算的核心问题是“如何更高效地将数据输送给计算单位”,而计算并不重要。

我们看到之前很多的解决方案在计算上做了很多文章,包括把计算单位EU升级,从小规模的计算,比如将乘法器升级到更高规格的卷积、三维卷积、矩阵等方式。这种方式并不真正地破解瓶颈,瓶颈是在数据供给方面。

这里有几个具体的困难大家可以探讨一下:

1、数据量大,带宽要求高,数据是不能完全存在片内的,存在片外会有DDR不仅会有功耗问题,我们做SoC的知道,DDR带宽一向是大家争夺的重点,所以系统瓶颈会产生。

2、数据耦合性比较高,很大程度上数据是重复使用的,重复使用的数据会进一步加大功耗。

3、其实更大的困难是第三点,数据的使用复杂度很高,很多朋友在设计AI芯片的时候,数据的排序从不同的网络层之间切换的是非常困难的。

我们总结一下现在常见解决方式:

1、增加计算资源。刚才提到了,这一方法只能增加计算的效率,但是没有办法破解“存储墙”。

2、通过软件的方式编辑数据,让数据的存储方式利于硬件直接调取。但是这种方法对于中间的动态数据流是无法应对的。

3、通过硬件整合更大规模的算子。这一方法有些困难,刚才讲到神经网络有很多不同的配置,这些配置对神经网络很难做到全部兼容。

4、在计算资源内部放入少量的存储资源。但是存储资源仍然有瓶颈,少量的存储资源放不了太多的数据。

5、还有现在比较火的一种方式是把计算资源放到存储器内部,一般叫“存算一体化”,这当中也有很多问题没有被解决,首先它需要非常大的片上存储,只有大量的片上存储才能够把整个神经网络模型都放进去;第二基本上做存算一体的大部分都还是针对全联接层构成的DNN或feature map非常小的卷积层进行设计,对这些比较复杂的卷积神经网络是否能够支持,也是要打问号的。

6、还有一种方法是在算法上设计低精度的网络,降低对存储的需求。这种方式看上去是解决了一定问题,但也有场景受限的情况。

总结一下,如果主要关注在计算方面,即使芯片提高了再大的并行度,它对AI计算的效能提升也是有限的。这种架构我们称之为“类CPU架构,或者“俊秀的雪碧架构”。这种架构是由计算驱动存储。因为这种计算资源在神经网络上是比较富余的,用富余的资源驱动稀缺的存储资源,显然没有办法带来很好的收益。

探境科技重新思考了存储和计算的关系,以存储来驱动计算,做了一套完全不同于俊秀的雪碧的架构。

这套架构从数据层和计算层中间,通过数据航线,数据作为节点和计算节点,这个过程是一个数据搬移的过程,因为我们可以认为所有的数据都有自己的生命周期,它在生命周期里可能会和其他数据发生相应关系,我们以数据作为优先可以考虑到数据带动算子,而非由算子找数据的关系。

这套关系是由Scheduler控制器来控制的,这样一个CPU可以知道在动态运行过程中哪些数据和哪些算子需要有一定的相关性,从而构建出一张相对比较合理的网络。

所以这里本质上来讲深度学习的计算是图计算,这个方向上我们对此有很高的认知。

举个例子,像曾经大家做通信算法的时候都会做到傅里叶变换,做时域和频域的变化,很多问题在时域里无法解决的时候,你走到频域里就迎刃而解。所以神经网络的本质问题是图计算问题,dddkh走到图计算的高度的时候,很多问题会迎刃而解。

SFA能带来什么好处呢?首先数据访问量能降低10到100倍,所以存储子系统的功耗能下降10倍以上;在28nm条件下,系统能效比超过4 TOPS/W,计算资源利用率也很高,超过80%,我们可以看到现在公开的很多AI架构芯片资源利用率都只在50%上下浮动。另外SFA面积非常小,在28nm工艺条件下的Post Layout面积是每TOPS 0.5平方毫米。

同时,SFA可以做到通用型的AI芯片,可以支持任意已知的神经网络,等同于GPU的兼容性。很多设计芯片的朋友都知道,想要做一款通用型的AI芯片非常非常困难,有的只能支持几个神经网络,有的会在神经网络的参数上有非常大的限制,只能支持一些,有些可能就不支持了。

SFA对所有的神经网络参数、架构没有任何限制,对数据类型也任何限制,包括INT8、INT16、浮点16、浮点32、甚至包括一些自定义的浮点,全都可以支持;并且对于深度学习里所讲到的稀疏化的数据,也是可以自适应去支持,不用事先做任何的预处理。我们知道通用型对芯片设计是非常重要的,因为我们做芯片设计的人通常所面临的场景是非常广泛的,只为一个场景做一个具体的芯片可能成本就太高了。

SFA的易用性也非常高,工具链使用很简单,对用户来说网络不需要重新训练,这也是真正用户使用上的头疼问题,需要拿着网络重新训练,但是SFA的网络可以直接拿来使用不用训练,数据的精度设置灵活度非常大,甚至可以做到每层做自己的定义数据精度。

因此,有这样的一些优点,所以可以考虑做出当前没有实现的功能,我们既可以做一些训练,也可以做推理,终端能看到更多的是推理的芯片,SFA也可以做云端的训练和推理,无缝衔接,更重要的事情是在终端可以做到终端推理和终端的一些本地训练。

最近大家对隐私的要求也越来越高,很多用户本地所拍摄的图像是不太愿意上传到云端,但他又希望能够在自己不断地使用过程中通过自己的训练能够让自己的模型变的更加精确、更加适合场景。这样的话需要一些本地训练,或者是需要一些协同性的训练,和其他用户一同训练更好的模型,采用这样的架构功能就可以完成。

我们认为这是真正可以符合商业应用的AI芯片,其他大量的AI芯片会有局限性于固定场景的使用。

基于SFA对所有终端的应用场景都可以支持,语音芯片、机器视觉芯片、自动驾驶芯片等,这些场景的核心点都在于AI计算,如果AI计算能够超出现有的水平达到更高的能效比、更好的成本控制,在半导体方向上创新永远是推动行业发展的原动力,并且能够带来源源不断的提升。有这样的SFA的架构应该能够给所有终端芯片都有新的收获,包括从成本上、功能上、易用性上,都会有新的创新。

谢谢大家!

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。