首页 > 编程知识 正文

maya开gpu加速计算,cpu计算速度

时间:2023-05-05 16:42:04 阅读:172453 作者:3236

1、GPU加速计算什么是GPU。 也称为显示核心、可视处理器、显示芯片。 是专门在电脑、工作站、游戏机、平板电脑、智能手机等移动设备上进行图像运算的微处理器,与CPU相似。 但是,GPU是为了执行复杂的数学和几何计算而设计的,这些计算对于图形绘制是必要的。 随着人工智能的发展,当前的GPU不再局限于3D图形处理。 GPU加速计算是指同时使用图形处理器(GPU )和CPU,以加快科学、分析、工程、消费和企业APP应用的运行速度。 2007年NVIDIA首次推出GPU加速器,目前在全球范围内支持政府实验室、大学、企业和中小型企业的节能数据中心。 GPU将加快从汽车、手机和平板电脑到无人机和机器人等平台的APP应用。

2、GPU与CPU的性能比较了解GPU与CPU差异的一个简单方法是比较它们如何处理任务。 虽然CPU由几个针对顺序串行处理进行了优化的核心组成,但GPU具有一个由数千个更小、效率更高的核心组成的大规模并行计算体系结构,这些核心旨在同时处理多任务处理。

GPU的特点是有大量的内核(最多几千个内核)和大量的高速内存,最初设计用于游戏、计算机图像处理等。 GPU主要擅长类似图像处理的并行计算,即所谓的“粗粒度并行”。 这适用于图像处理。 由于像素和像素之间相对独立,GPU提供了大量的内核,可以同时对许多像素进行并行处理。 然而,这并不增加延迟,而只是增加处理吞吐量。 例如,当一条消息到达时,GPU有很多核心,但其中只有一个核心用于处理当前消息。 此外,GPU核心通常设计为比CPU更支持与图像处理相关的运算。 GPU主要适用于在数据层表现出高并行特性的APP应用,例如GPU适用于蒙特卡罗模拟等并行运算。

CPU和GPU本身的架构方式和运算目的的不同造成了CPU和GPU的不同,主要的不同在于以下。

更形象的说法是:

现在全班都要去春游。 有保时捷和巴士。 保时捷只有四个座位,但半个小时就到了。 公共汽车有50个座位,但要花1个多小时。 为了让全班早点通过,巴士肯定是优先的。 从计算的角度来看,大家的CPU是保时捷,GPU是巴士。 虽然GPU的各个核心都很弱,但是很多核心给GPU在并行计算方面带来了相当大的优势。 还有一点,GPU有相当大的价格优势。 单纯从浮点数的计算能力来看,不足300美元的gt430(91.564g )已经接近1,2000美元的I7 ) 107.6g )。

以下比较 CPU 和 GPU 的有趣视频片段.

3358 v.youku.com/v _ show/id _ xnjy3mty4njaw.html

3、GPU的优势已经详细介绍。 由于GPU的特点特别适合大规模并行运算,所以GPU在“深度学习”领域发挥了很大的作用。 因为GPU可以并行处理大量琐碎的信息。 虽然深度学习所依赖的是神经网络——和与人脑神经高度相似的网络——,但这样的网络出现的目的是以高速状态分析大量数据。 例如,如果你想教这样的网络如何识别猫的样子,你就必须提供无数的猫的照片。 这个工作是擅长GPU芯片。 此外,GPU的另一大优点是能源需求远远低于CPU。 GPU擅长的是快速处理大量的数据。 将GPU加速器用于机器学习的初始用户包括许多规模的网络和社交媒体公司,也有在数据科学和机器学习领域一流的研究机构。 与单纯使用CPU的方法相比,GPU具有数千个计算核心,APP应用吞吐量是GPU的10-100倍,因此成为了数据科学处理大数据的处理器。

4、GPU的缺点简单地说,并不是所有的运算都可以并行化,实际上这也是并行计算的缺点。 但是大多数矩阵运算都有并行化的可能性,所以把机器学习的许多方法移植到GPU中是相当有价值的。

5、现状与趋势工业和学术界的数据科学家已经将GPU用于机器学习,在各种应用中实现开创性的改进。 这些应用包括图像分类、视频分析、语音识别和自然语言处理等。 特别是深度学习,人们在这个领域进行了很大的投资和研究。 深度学习利用复杂的多级“深度”神经网络,构建了一个从大量未标记训练数据中进行特征检测的系统。 机器学习已经有几十年的历史了,但两个比较近期的趋势促进了机器学习的广泛

泛应用:海量训练数据的出现以及GPU计算所提供的强大而高效的并行计算。人们利用GPU来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。GPU还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。

目前大量的开发语言如R、Python等的机器学习/深度学习框架和包都支持GPU,比如,TensorFlow,Theano,scikit-learn 等等。

参考资料:

http://cos.name/2013/10/gossip-r-gpu/

http://blog.csdn.net/h5y6w8/article/details/48367739

http://www.nvidia.cn/object/machine-learning-cn.html












版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。