首页 > 编程知识 正文

ai营销的现状及发展(人工智能ai对传统财务分析的挑战)

时间:2023-05-04 16:13:46 阅读:65726 作者:2073

nvidia的RTX-30系列GPU于去年10月初发布,尤其是其中的3090拥有24G显存,可以在当今大多数深度学习模式中脱颖而出。 这是深度学习爱好者,是个人能负担的范围内的设备。

现阶段深度学习开发的一些框架: TensorFlow、Keras、PyTorch、MXnet、PaddlePaddle,都使用过。 美国封锁中国技术制裁后,开始对国产百度PaddlePaddle (简称Paddle )框架技术更加关注。 我还参加了百度的实战露营项目。 其中之一是2月10日晚结束的Paddle2.0高层API实战。

实战露营期间,小组询问paddle2.0是否支持3090时,有人回答可以支持,所以打算昨晚了解详细情况后再决定是否购买3090。 结果令人失望。 Paddle2.0公式尚未正式支持3090。

目前,只有个人发布适用于python3.8的兼容版,否则必须自行编译

去年12月16日,本人发出了微喷头《PyTorch 1.7.1与TensorFlow 2.4.0发布,正式支持RTX-30系列显卡,3080、3090显卡终于可以释放算力》。 当时的国际主流框架已经正式支持RTX-30系列设备,但很遗憾直到今天,国内人工智能框架的导航者Paddle还没有提供官方支持。

一、人工智能开发格局争夺群雄霸权

主要人工智能开发框架

虽然有很多人工智能开发框架,但上图仍然只是展示了主流框架的发展轨迹。 框架目前为传统机器学习、深度学习传统机器学习框架的代表为SciKit-learn,始于2007年谷歌summer of code的项目,最初为David cournent 2012年后,深度学习发展迅猛,谷歌的TensorFlow、Facebook的PyTorch、微软的CNTK、百度的PaddlePaddle (简称Paddle )、亚马逊的MXNet等

TensorFlow的由来是TensorFlow(简称TF )于2015年11月发布,采用先定义后运行的静态模型方式,基本延续了Theano的特点,2019 从2019年开始,学术界的使用率被PyTorch赶超,但由于工业界的大量使用,仍然处于主流地位。

说到TensorFlow,不得不说TheanoKeras。 Theano擅长多维数组运算,可以说是2008年推出的第一个深度学习框架。 由著名的Yoshua Bengio和Ian Goodfellow主导。 但是,2013年Ian Goodfellow进入谷歌,TensorFlow在谷歌强势崛起,Theano这个旧框架开始走下坡路,2017年Theano宣布停止更新。

关于Keras,可以说是Francois Chollet一个人开发的。 2015年3月发布,早于TensorFlow。 最初作为Theano的上层被封闭,可以简单且高效地使用。 由于Francois Chollet本身是谷歌的研发人员,因此从Keras v1.1.0将默认后端更改为TensorFlow,TensorFlow插上了翅膀。 2019年6月发布了TensorFlow 2.0,宣布Keras现在是TensorFlow的官方高级API。 Keras 2.3.0发布:

Keras今后将与TF.Keras(tensorflow2.x中的一个软件包)同步;

今后,不支持TensorFlow以外的后端。 这里指的是Theano、CNTK等。

keras的新版本仅支持tensor flow2. x版。

在PyTorch前世的2017年,脸书开放了PyTorch框架,并从该框架开始迅速发展。 2019年,学术界的使用率远远超过TensorFlow,工业界也在继续蚕食TensorFlow的底盘。

PyTorch起源于一个名为Torch的框架,它采用用Lua语言开发的动态模型。 Torch适用于卷积网络和循环网络,这些特定吸引了脸书、推特等公司进行研究和改进。 PyTorch是用Python语言开发的版本。

PyTorch的一部分来源于Caffe框架(视觉处理库),是贾彦清在进行课题时开发的。 该框架于2013年推出,正好赶上深度学习的爆发,增加了良好的性能。 曾一度成为仅次于TensorFlow的深度开发框架第2位。 贾扬清进入脸书后,还开发了Caffe2,这些都集成到了PyTorch中。

PyTorch以python编码习惯方式运行,使用调试简单,API规划清晰。 另外,由于采用了优异的性能、多种可选模型,学术界很快就能得到。 处于研究爆炸阶段的深度学习,学术界的选择当然是驱动工业界的选择。 因此,今天,PyTorch可以说是世界第一的深度学习框架。

从谷歌的TensorFlow2.0开始,一切都是

面转向了动态模型,但由于糟糕的API规划与历史版本的兼容问题,使用还是比较麻烦。

Paddle的演进

PaddlePaddle (PArallel Distributed Deep LEarning)是百度研发的深度学习开发框架,简称Paddle,于2016年开源。基本是跟随Google的脚步,开始采用的也是静态模型。也就是直到2021年2月2.0版推出,主版本1.x一直以静态图为主模式。

通过最近参加百度实战营,Paddle2.0是全面以动态模型为主。过去常用的paddle.fluid包下的api将废弃,这些都是1.x静态图方式的核心api。另外,Paddle2.0也明确了paddle.vision、paddle.text,对位的是pytorch的torch.vision、torch.text包,将视觉、nlp相关的内容独立处理,这样也更有针对性。

另外,paddle的高层api,对标的是Keras的使用方式,用paddle.Model将模型进行封装,大大简化训练、预测等通用操作。

paddle2.0api部分api失效声明

微软的选择

微软是传统的人工智能研发巨头,其推出框架为CNTK。不过CNTK一直不温不火,现在能看到的最新更新时间是2019年4月26日。

github上的最新更新时间

相比TensorFlow与PyTorch的2-3个月就更新一版来看,基本处于停止状态了。

2020年中期,facebook已经将PyTorch Windows版本的维护更新移交给了微软。也就是微软加入了PyTorch阵营,起始维护版本为PyTorch1.6。而且,微软的WSL将加大对GPU计算的支持。

MXNet的自娱自乐

MXNet是由Github上名为DMLC的组织开发,多为大学与研究机构的学生,发起人有粗犷的招牌、忧郁的棉花糖等,是一个真正的“散修团体”。由于其特点,追求的是高效、创新,因而MXNet直接使用了动态模型等新特性。在MXNet刚刚完成的时候,听到TensorFlow开源的消息。而后,粗犷的招牌、受伤的自行车、Dave(这两位都是粗犷的招牌的老师)成立了个小公司,完善MXNet。不久,Dave被Google的Jeff Dean拉去做TF,受伤的自行车跑去亚马逊。后来粗犷的招牌也加入了亚马逊,现成为首席科学家,MXNet现在是亚马逊的官方架构。

MXNet的开发团队,相比TF、PyTorch少得多,更新不是很频繁,推广力度不是很大,最主要的是文档更新等辅助资料不完善。对MXNet的接触,基本都是粗犷的招牌等发的书《动手学深度学习》开始的。

MXNet采用比较轻的架构,分布、并行实现简单,特别是2017年MXNet 0.11版开始,动态图接口Gluon推出,基本与PyTorch相当。只是现在论文都是PyTorch的代码,还有必要学一个差不多的框架吗?所以也是无奈!

二、百度的策略与感触 1.速度之争

Paddle先是模仿TensorFlow,走的是静态模型的路,现在又模仿PyTorch,走动态模型的路。

MXNet是在PyTorch开源的同年,也就是2017年引入了动态模型。

2019年10月,TensorFlow2.0正式发布,全面转向动态模型。

大势所趋,但直到最近Paddle2.0才全面动态模型,比PyTorch发布整整滞后了3年。

至于RTX-30系列硬件的支持,已经落后了对手2个月,至于什么时候官方支持还不得而知。

如果一个新手买了最新硬件来学习深度学习,他会选择什么框架???只有PyTorch、TensorFlow可选。当然专业些的人员,可以自己下载Paddle源代码,自己编译,修改尝试兼容30系列。但新手能办到吗?况且非官方的编译,不久又会与官方版本出现差异,谁会选择这种学习方法???

百度实战营,讲师经常要讲到晚上11点或更晚,其中一位说到家已经凌晨1点多。百度的开发、运营人员在燃烧着青春,为Paddle的普及进行努力。

另一方面,上手深度学习的人,真正进入人工智能领域时,又会转向其他框架,因为Paddle没有跟上最新的变化。人工智能的竞争,比的就是速度。3年,在目前的人工智能竞争大潮中,已经是落后的太远了!只能说,百度的决策层反应有些慢了。

2.格局之争

受伤的自行车Net是2012年ImageNet竞赛冠军,包含了几个比较新的技术点,也首次在CNN中成功应用了ReLU、Dropout和LRN等Trick。同时受伤的自行车Net也使用了GPU进行运算加速。开始了本轮的深度学习热潮。

近年的人工智能兴起,大众了解的是从Google的AlphaGo战胜人类围棋冠军开始,把强化学习与深度学习结合。

Theano的开发者Ian Goodfellow,提出GAN模型,开创了人工智能模拟创新的领域。

2018年底,Google提出NLP领域的预训练模型BERT,提供性能到一个新的水平。百度随后开发了针对中文的预训练模型ERNIE。

2020年,百度推出PP-YOLO,FPS和mAP均超越YOLOv4,施展的是Trick大法。

2020年,DeepMind(Google)公司创建的人工智能系统AlphaFold2,基于图神经网络,是一项里程碑式的成就。该系统使得快速确定新冠病毒(SARS-CoV-2)的蛋白质结构成为可能,就在几个月前,我们还对这种病毒几乎一无所知。

可以看到,百度在AI浪潮里始终处于一个lsdpj的状态。我们不能妄自菲薄,百度毕竟是国货。但也不能因为百度是国货,就盲目推崇。

在高新技术的赛道上,我们还是后来者,要用清醒的大脑去思考。技术、项目的定位,如何取舍,要客观一些。比如本月,华为创始人兼CEO任正非公开华为已经启动“南泥湾”计划,也就是指生产自救,包括在煤炭、钢铁、音乐、智慧屏、PC电脑、平板等各个领域的突破。任正非还特别强调,不依靠手机,华为也能存活。这实际是给这两年的5G下了一个判断,因为5G本身的高功耗,高投入,而且还没有适合的应用,传统无线传输的弱点都存在,性价比不高。当美国马斯克的star-link网络开始提供服务的时候,5G的优势将荡然无存,今后的通讯是空间通讯,而不是简单地面基站了。

从百度的网站上可以看到,百度现在大力发展在线教育,提供免费算力,培养Paddle用户。同时,提供大量应用层实例,很多都是学员发布,水平参差不齐。希望能从用户中发现应用案例,找到方向。这里要强调一点的是,目前的人工智能,更懂得发展方向的应该是专业人员,社会上提供的是应用案例。

高科技,只有定位于人类发展的未来目标,才能预先锁定方向。百度如果一味搞跟随战略,最终可能没有自己的核心强项,可能只有应用层的积累。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。