首页 > 编程知识 正文

新华三收购以色列芯片公司(以色列军事工业)

时间:2023-05-05 14:18:19 阅读:77485 作者:3988

来源:本文由ZDnet通过半导体行业观察编译。 谢谢你。

AI芯片领域蓬勃发展,除传统产品外,还有许多新兴公司的创新。 你可能没听说过这篇文章介绍的欧盟现实,但今天以后你会听到更多的信息。

欧盟reality是2019年在以色列成立的第一家公司。 今天发表了NR1-P。 这是一个新的以AI为中心的推理平台。 这是以前不为人知的大胆主张,到达那里的时间很短。 即使它是后来实施的更多实现中的第一个。

ZDNet最近与欧盟reality的首席执行官兼联合创始人Moshe Tanach取得了联系,了解了详细情况。

由行业资深人士创立

Tanach在半导体和系统领域拥有20多年的经验,致力于从计算和无线到数据中心网络和存储的解决方案。 他和他的联合创始人、运营副总裁Tzvika Shmueli和副总裁VLSI Yossi Kasus,走了很长的路,在他们之间的重要职位上有着令人印象深刻的过去的经验。

Tanach解释说,NeuReality的创始人在哈班那实验室、英特尔、Marvell和Mellanox等公司有丰富的工作经验,赛登斯也是NeuReality的重要合作伙伴。 此时,目前NR1-P正在Xilinx FPGA上制作样机并实现。 他们的最终目标是将NR1-P实现为片上系统(SoC )。

NeuReality开始向客户和合作伙伴演示NR1-P,尽管没有透露其名称。 该公司声称,原型平台可以验证技术,并将客户集成到精心设计的数据中心和其他设施中。

Tanach提炼了欧盟现实的理念,说系统和半导体应该从外部向内部设计。 “我们需要了解系统。 如果可以像高通一样构建系统,那么我们正在构建电话和基站。 为了制造最好的手机芯片”。

从一开始,NeuReality就选择只专注于推理工作负载。 正如Tanach指出的,处理如何训练AI模型引起了很多关注,产生了非常昂贵的计算机系统。 这些在训练模式上有很好的效果。

但是,如果要推动在现实的APP应用中使用AI,则需要考虑如何部署和使用模型。 因此,进行推理。 此外,如果尝试使用昂贵的系统,每次AI操作的成本仍然很高,这两个问题很难一起解决。

这也是他们将英特尔AI产品部门前总裁Naveen Rao博士带到欧盟现实董事会的原因之一。 Rao是Nervana的创始人,该公司于2016年被英特尔收购。 在英特尔工作时,Rao有两条产品线。 一个用于训练,另一个用于推理。

正如

计算的不确定性

Tanach所说,Rao将享受欧盟现实的“新鲜视角”。 但是,这到底意味着什么呢? 与Xilinx的合作非常重要,因为NR1-P非常依赖FPGA解决方案。 Tanach指出,Xilinx不仅仅是可编程逻辑和FPGA :

“看他们的高级FPGA是如何构建的,它们是片上系统。 它们在最新的Versal ACAP技术中内置了ARM处理器。 它还集成了可编程的VLAW引擎阵列。 我们可以构建非常强大的16卡服务器机箱”。

由于NeuReality在Xilinx FPGA上实现了NR1-P,因此只需构建机箱,就无需制作任何东西。 正如Tanach指出的那样,他们提出了与Xilinx一起工作,在FPGA内部实现的自主推理引擎。 SoC正在开发中,预计2022年初发售。

这意味着NR1-P不针对嵌入式芯片。 因为为此使用FPGA是不现实的。 即使有SoC,NeuReality也将继续瞄准近解决方案。

“边缘设备需要更加优化的解决方案,专门针对设备需求而设计。 必须用微瓦、毫瓦或小于50毫瓦处理。 但是,计算中存在不确定性。 现在的趋势是将越来越多的应用计算推进云,但我们开始看到钟摆又回来了。

微软和AT&; 看看t的交易吧。 也就是说,美国的AT&; t在设施中建立更多的数据中心,使更多的计算能力接近边缘。 由于成本和功能的原因,许多物联网设备无法集成AI功能,因此需要计算服务器来提供更接近的服务。 在云回来之前会带来高延迟。”

根据

面向对象的硬件架构

Tanach,欧盟reality的“秘密调味料”在概念上很简单。 其他深度学习加速器可能很好地减轻了APP应用程序的神经网络处理负担,但它们是PCI设备。 必须安装在整个服务器上,成本很高。

CPU是系统的中心,在卸载负载时运行设备的驱动程序。 欧盟reality不是这样。 NR1-P是连接到网络的自主设备。 它具有所有数据路径功能,不需要在软件中运行,消除了此瓶颈,也消除了对其他设备的需求。 Tanach将其称为面向对象硬件:

“这里的主要对象是AI计算引擎。 长期以来,我们一直在使用面向对象的软件。 它改变了我们写东西的方式。 我们用必要的功能打包了主要对象。 现在应该开发硬件也是一样的。 如果您想投资AI计算引擎,请将其作为首要任务。 ”

Tanach谈到的另一个主题是使用的通信协议。 他指出了Nvidia等推理解决方案

方案使用REST API,这使得网络连接非常昂贵。NeuReality还有其他实现方式,他们将在以后公开。

最后但并非最不重要的一点是,云数据中心的弹性和利用率也很重要。Tanach说,现有的深度学习加速器不在这个方程式之内。Kubernetes连接,与协调器的通信,所有这些都在托管这些深度学习加速器的CPU上完成。NeuReality将这些功能集成到设备中。

Tanach补充说,这一切都意味着AI推理操作的成本非常低,无论是在资本支出还是在运营支出方面。目前,FPGA可以用于数据中心以及像5G基站这样的功耗较小的地方。SoC将有两种类型,一种用于数据中心,另一种用于降低成本和电源规格,以使边缘节点更接近节点。

NeuReality声称,与深度学习加速器供应商提供的GPU和ASIC相比,每美元的性能提高了15倍。当被问及这些主张的参考时,Tanach提到使用MLPerf作为内部基准测试的基础。Tanach补充说,NeuReality将很快分享对MLPerf的建议更新。

除了交付其SoC,NeuReality还致力于交付其软件堆栈。目标是能够与人们正在使用的任何机器学习框架一起使用,无论是PyTorch还是TensorFlow或其他任何东西。Tanach指出,ONNX使这一过程变得更加容易,并且NeuReality正在投资软件。

他接着补充说,人工智能计算卸载的未来是完全卸载pipeline。可以肯定的是,NeuReality的软件堆栈将支持将启用该功能的计算图表示。在客户方面,NeuReality的目标是三个细分市场。

Hyperscalers和下一波云服务提供商,为军事,政府和金融行业等客户(最后但并非最不重要)的OEM建立数据中心的解决方案提供商。

今天的报道是在2021年2月,NeuReality从隐身中脱颖而出之后 的再次亮相,那时他们获得了800万美元的种子投资。诚然,对于NeuReality来说还处于初期。但是,公司的背景和进展让他们值得关注。

点击文末“阅读原文”,可查看英文原文。

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第2667内容,欢迎关注。

晶圆|集成电路|设备|封测|射频|存储|美国|台积电

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。