在我们的车库大年夜甩卖中,想像一下,大年夜每一类器械里我们都遴选了几件名贵的宝贝:书本,大年夜学时代的经典 T 恤。要命的是,我们可能还不想扔它们。我们把这些“可能”会留下的物品放在它们各自的类别之上,以备再推敲。
池化层
全部图像中的┞封种“卷积”会产生大年夜量的信息,这可能会很快成为一个计算恶梦。进入池化层,可将其全部缩小成更通用和可消化的情势。有很多办法可以解决这个问题,但最受迎接的是“最大年夜池”(Max Pooling),它将每个特点图编辑成本身的“读者文┞藩”版本,是以只有红色、茎或曲线的最浩揭捉?本被表征出来。
在车库春季清理的例子中,如不雅我们应用有名的日本清理大年夜师 Marie Kondo 的原则,将不得不大年夜每个类别堆中较小的收藏夹里选择“激发喜悦”的器械,然后卖掉落或处理掉落其他器械。 所以如今我们仍然按照物品类型来分类,但只包含实际想要保存的物品。其他一切都卖了。
这时,神经收集的设计师可以堆叠这一分类的后续分层设备——卷积、激活、池化——并且持续过滤图像以获得更高等其余信息。在辨认图片中的苹不雅时,图像被一遍又一遍地过滤,初始层仅显示边沿的几乎弗成鉴其余部分,比如红色的一部分或仅仅是茎的尖端,而随后的更多的过滤层将显示全部苹不雅。无论哪种方法,当开端获取结不雅时,完全连接层就会起感化。
完全连接层
避免用数学术语来说,反向传播将反馈发送到上一层的节点,告诉它谜底差了若干。然后,该层再将反馈发送到上一层,再传到上一层,直到它回到卷积层,来进行调剂,以赞助每个神经元在随后的图像在收集中传递时更好地辨认数据。
如今是时刻得出结不雅了。在完全连接层中,每个削减的或“池化的”特点图“完全连接”到表征了神经收集正在进修识其余事物的输出节点(神经元)上。 如不雅收集的义务是进修若何发明猫、狗、逝世鼠和沙鼠,那么它将有四个输出节点。 在我们描述的神经收集中,它将只有两个输出节点:一个用于“苹不雅”,一个用于“橘子”。
“苹不雅”和“橘子”节点的工作(他们在工作中学到的)根本上是为包含其各自水不雅的特点图“投票”。是以,“苹不雅”节点认为某图包含“苹不雅”特点越多,它给该特点图的投票就越多。两个节点都必须对每个特点图进行投票,无论它包含什么。所以在这种情况下,“橘子”节点不会向任何特点图投很多票,因为它们并不真正包含任何“橘子”的特点。最后,投出最多票数的节点(在本例中为“苹不雅”节点)可以被认为是收集的“谜底”,尽管事实上可能不那么简单。
因为同一个收集正在寻找两个不合的器械——苹不雅和橘子——收集的最终输出以百分比表示。在这种情况下,我们假设统??练习中表示已经有所降低了,所以这里的猜测可能就是75%的“苹不雅”,25%的“橘子”。或者如不雅是在练习早期,可能会加倍不精确,它可能是20%的“苹不雅”和80%的“橘子”。这可不妙。
如不雅一开端没成功,再试,再试…
所以,在早期阶段,神经收集可能会以百分比的情势给出一堆缺点的谜底。 20%的“苹不雅”和80%的“橘子”,猜测显然是缺点的,但因为这是应用标记的练习数据进行监督进修,所以收集可以或许经由过程称为“反向传播”的过程来进行体系调剂。
如不雅经由过程收集馈送的图像是苹不雅,并且收集已经进行了一些练习,且跟着其猜测而变得越来越好,那么很可能一个很好的特点图块就是包含了苹不雅特点的高质量实例。 这是最终输出节点实现任务的处所,反之亦然。
这个过程一向反复进行,直到神经收集以更精确的方法辨认图像中的苹不雅和橘子,最终以100%的┞俘确率猜测结不雅——尽管很多工程师认为85%是可以接收的。这时,神经收集已经预备好了,可以开端真正辨认图片中的苹不雅了。
注:谷歌 AlphaGo 用自进修神经收集评估棋盘地位的办法和我们介绍的办法如有不合。
【编辑推荐】
- 分析DeepMind神经收集记忆研究:模仿动物大年夜脑实现持续进修
- 神经收集弗成思议的荣誉
- 深度神经收集中深度毕竟带来了什么?
- AI 黑箱难题怎么破?神经收集模型算法给你谜底
- Facebook的交互式神经收集可视化体系ActiVis,打开神经收集的“黑盒子”
推荐阅读
CDN统??成长过程中,在计算才能、存储才能、收集架构、内容安排等方面,一向赓续立异,接收新的思惟和技巧,持续晋升CDN办事才能和办事质量。跟着云计算、HTTP/2协定、SDN/NFV等技巧的出现,CDN厂商也将陆续开端寻>>>详细阅读
本文标题:一文看懂神经网络工作原理
地址:http://www.17bianji.com/lsqh/34806.html
1/2 1