作家
登录

人工智能之终端芯片研究报告

作者: 来源: 2017-04-12 10:09:50 阅读 我要评论

我们回过火来看这个停止标记识其余例子:深度进修神经收集大年夜成百上千甚至几百万张停止标记图像中提取表征数据,经由过程反复练习精力经元输入的权重调制得加倍精确,无论是否有雾,好天照样雨天,每次都能获得精确的结不雅。只有这个时刻,我们才可以说神经收集成功地自进修到一个停止标记的样子。

二、深度进修的实现

3.GPU和CPU的机能差别

深度进修仿若机械进修最顶端的钻石,付与人工智能更残暴的将来。其摧枯拉朽般地实现了各类我们曾经想都不敢想的义务,使得几乎所有的机械帮助功能都变为可能。

更好的片子推荐、智能穿戴,甚至无人驾驶汽车、预防性医疗保健,都近在面前,或者即将实现。人工智能就在如今,就在明天。你的C-3PO我拿走了,你有你的终结者就好。

然则正如前面提到的,人工神经收集,即深度进修的前身,已经存在了近三十年,但直到比来的5到10年才再次鼓起,这又是因为什么?

1.冲破局限的进修算法

20世纪90年代,包含支撑向量机(SVM)与最大年夜熵办法(LR)在内的浩瀚浅趁机械进修算法接踵提出,使得基于反向传播算法(BP)的人工神经收集因难以弥补的劣势逐渐淡进出们的视线。直到 2006年,加拿大年夜多伦多大年夜学传授、机械进修范畴的泰斗 Geoffrey Hinton 和他的学生在《科学》上揭橥了一篇文┞仿,解决了反向传播算法存在的过拟合与难练习的问题,大年夜而开启了深度进修在学术界和工业界的海潮。

深度进修的本质,是经由过程构建具有很多隐层的机械进修模型和海量的练习数据,来进修更有效的特点,大年夜而最终晋升分类或猜测的精确性。是以,“深度模型”是手段,“特点进修”是目标。差别于传统的浅财揭捉?习,深度进修的不合在于:

  • 强调了模型构造的深度,平日有5层、6层,甚至10独裁的隐层节点;
  • 明白凸起了特点进修的重要性,也就是说,经由过程逐层特点变换,将样本在原空间的特点表示变换到一个新特点空间,大年夜而使分类或猜测加倍轻易。

这种算法的差别晋升了对练习数据量和并行计算才能的需求,而在当时,移动设备尚未普及,这使得非构造化数据的采集并不是那么轻易。

2.骤然爆发的数据大水

深度进修模型须要经由过程大年夜量的数据练习才能获得幻想的效不雅。以语音辨认问题为例,仅在其声学建模部分,算法就面对着十亿到千亿级其余练习样本数据。练习样本的稀缺使得人工智能即使在经历了算法的冲破后依然没能成为人工智能应用范畴的主流算法。直到2012年,分布于世界各地的互相接洽的设备、机械和体系促进了非构造化数据数量的巨大年夜增长,并终于在靠得住性方面产生了质的飞跃,大年夜数据时代到来。

大年夜数据到底有多大年夜?一天之中,互联网产生的全部内容可以刻满1.68亿张DVD;发出的邮件有2940亿封之多,相当于美国两年的纸质信件数量;发出的社区帖子达200万个,相当于《时代》杂志770年的文字量;卖出的手机为37.8万台,高于全球天天出身的婴儿数量37.1万倍。然而,即使是人们天天创造的全部信息,包含语音通话、电子邮件和信息在内的各类通信,以及上传的全部图片、视频与音乐,其信息量也无法匹及每一天所创造出的关于人们自身晃荡的数字信息量。

我们如今还处于所谓“物联网”的最初级阶段,跟着技巧的成熟,我们的通信设备、交通对象和可穿戴科技将能互相连接与沟通,信息量的增长也将以几何倍数持续下去。

3.难以知足的硬件需求

骤然爆发的数据大水知足了深度进修算法对于练习数据量的请求,然则算法的实现还须要响应处理器极高的运算速度作为支撑。当前风行的包含X86和ARM在内的传统CPU处理器架构往往须要数百甚至上千条指令才能完成一个神经元的处理,但对于并不须要太多的法度榜样指令,却须要海量数据运算的深度进修的枷⒚痂求,这种构培养镌得异常愚蠢。尤其是在当前功耗限制下无法经由过程晋升CPU主频来加快指令履行速度,这种抵触愈发弗成调和,深度进修研究人员急切须要一种替代硬件来知足海量数据的运算需求。

或许终有一日将会出生全新的、为人工智能而专门设计的处理器架构,但在那之前的几十年,人工智能仍然要向前走,便只能改进现有处理器,使之成为可以或许最大年夜程度适应大年夜吞吐量运算的计算架构。今朝来看,环绕现有处理器的主流改进方法有两个:

  • 图形处理器通用化:

将GPU或FPGA等其他处理器内核集成到CPU上。在这种架构中,CPU内核所不善于的浮点运算以及旌旗灯号处理等工作,将由集成在同一块芯片上的其它可编程内核履行,而GPU与FPGA都以善于浮点运算著称。AMD与Intel公司分别致力于基于GPU与FPGA的异构处理器,欲望借此切入人工智能市场。

三、现有市场——通用芯片GPU

在深度进修的范呈攀里,最重要的是数据和运算。谁的数据更多,谁的运算更快,谁就会占据优势。是以,在处理器的选择上,可以用于通用基本计算且运算速度更快的GPU敏捷成为人工智能计算的主流芯片。可以说,在以前的几年,尤其是2015年以来,人工智能大年夜爆发就是因为英伟达公司的GPU获得广泛应用,使抱病行计算变得更快、更便宜、更有效。

1.GPU是什么?

2.GPU和CPU的设计差别

那么GPU的快速运算才能是若何获得的?这就要追溯到芯片最初的设计目标了。中心处理器CPU须要很强的处理不合类型数据的计算才能以及处理分支与跳转的逻辑断定才能,这些都使得CPU的内部构造异常复杂;而图形处理器GPU最初面对的昵噜型高度同一的、互相无依附的大年夜范围数据和不须要被打断的纯净的计算情况,所以GPU只须要进行高速运算而不须要逻辑断定。目标运算情况的差别决定了GPU与CPU不合的设计架构:

CPU基于低延时的设计

  • 大年夜量缓存空间Cache,便利快速提取数据。CPU将大年夜量拜访过的数据存放在Cache中,当须要再次拜访这些数据时,就不消大年夜数据量巨大年夜的内存中提取了,而是直接大年夜缓存中提取。

      推荐阅读

      我是如何用10天自学编程,改变一生的?

    与学院派那种自下而上的过程比拟,这种自上而下的进修过程,能更快的完美小目标、激发兴趣和成就感。如不雅看到这标题,会让你认为,读完一篇文┞仿就能快速的┞菲握编程技巧的话,这可能>>>详细阅读


    本文标题:人工智能之终端芯片研究报告

    地址:http://www.17bianji.com/lsqh/34736.html

关键词: 探索发现

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
自媒体专栏

评论

热度

精彩导读
栏目ID=71的表不存在(操作类型=0)