作家
登录

深度学习的这些坑你都遇到过吗?神经网络11大常见陷阱及应对方法

作者: 来源: 2017-09-07 16:01:38 阅读 我要评论

为什么?

对于作为输入的数据,神经收集仅作一些根本的假设,个中之一是数据所处空间是持续的——对于大年夜部分空间来说,两个数据点之间的点至少有一些“mix”,两个相邻的数据点某种意义上表示“类似”的器械。在数据空间中存在较大年夜的不持续性(discontinuities),或存在表示同样事物的大年夜量分别数据(separated data),将使灯揭捉?习义务变得加倍艰苦。

还须要留意

数据预处理的另一种办法是试着削减所需数据变更的组合爆炸。例如,如不雅在角色动画数据练习的神经收集必须在每个地位和每个偏向进修雷同的动作组合,那么收集有大年夜量容量被浪费了,并且大年夜部分的进修过程是反复的。

忘记应用正则化了

如何解决?

问题描述

正则化神经收集的最根本办法是在收集的每个线性层(卷积层或dense层)之前添加dropout。大年夜中比及高的retainment probability开端,例如0.75或0.9。根据过拟合的可能性进行调剂。如不雅你仍然认为弗成能出现过拟合,那么可以将retainment probability设置到很高,例如0.99。

为什么?

正则化不仅仅是有关控制过拟合。经由过程在练习过程中惹人一些随机过程,你在某种意义上是“腻滑”(smoothing)了损掉格局。这可以加快练习速度,赞助处理数据中的异常值,并防止收集的极端权重设备。

还须要留意

数据加强(data augmentation)或其他类型的noise也可以像dropout一样作为正则化的方法。固然平日dropout被认为是将序偶多随机子收集的猜测结合起来的技巧,但也可以将dropout视为经由过程在练习过程中产生很多类似输入数据的变更来动态地扩大练习集大年夜小的办法。并且我们知道,避免过拟合和进步收集精确性的最佳方法是拥有更多收集未见过的数据。

应用的Batch太大年夜

问题描述

应用太大年夜的batch可能会对统??练习过程中的精确性产生负面影响,因为如许会降低梯度降低的随机性。

如何解决?

找到在练习时你能接收的最小的batch。在练习时可以或许最大年夜限度应用GPU并行性的批量大年夜小,对于精确性来说可能并不是最好的,因为在某些时刻,更大年夜的batch须要练习更多回(epoch)才能达到雷同的精确度。不要担心大年夜异常小的batch开端,比如16、8甚至是1。

为什么?

应用更小的batch临盆更便利(choppier)、更随机的权重更新。如许做有两大年夜好处。起首,能赞助练习“彪炳”本来可能被卡住的局部最小值;其次,可以使练习在“更平坦”的最小值停止,一般而言,后者会代表更好的泛化机能。

为什么?

还须要留意

进修率不精确

问题描述

进修率可能会对收集好欠浩揭捉?练有很大年夜的影响。如不雅你方才入行,在常见深度进修框架各类默认选项的影响下,几乎可以肯定你没有把进修率设置对。

如何解决?

把梯度剪裁(gradient clipping)关掉落。找到在练习时不会产生缺点的最高的进修率的值。然后将进修率设置得比这个值低一点点——这很可能异常接近最佳进修率了。

很多深度进修框架默认会启用梯度裁剪。这个选项可以防止练习过程中过度优化,它会在每个步调中强迫改变权重,让权重产生最大年夜限度的改变。这可能有效,特别是当数据中含有很多异常值的时刻,因为异常值会产生很大年夜的缺点,大年夜而导致大年夜的梯度和权重更新。然则,默认开启这个选项也会让用户很难手动找到最佳的进修率。我发来岁夜多半深度进修的新手都因为梯度裁剪的原因将进修率设得太高,使得整体练习行动变慢,也使改变进修率的效不雅弗成猜测。

如不雅你精确清理了数据,删除了大年夜部分异常值并且精确设制揭捉?习率,那么你实际上并不须要梯度裁剪。在封闭梯度裁剪后,如不雅你发明练习缺点有时会爆发,那么你完全可以从新打开梯度裁剪这个选项。然则,须要记住,练习缺点频发的原因几乎老是注解你数据的一些其他异常——裁剪只是一种临时的解救办法。

还须要留意

在最后一层应用了缺点的激活函数

问题描述

在最后一层应用激活函数,有时可能意味着你的收集无法产生所需的全部范围的值。最常见的缺点是在最后一层应用ReLU,大年夜而导致收集只能输出正值。

如何解决?

如不雅你做一个回归,那么在绝大年夜多半时刻你不会想在最后一层应用任何类型的激活函数,除非你确切地知道你想要输出的值的种类是什么。

在某些情况下,应用太多或太少的隐蔽单位(hidden units)都可能使收集难以练习。隐蔽单位太少,可能没有才能表达所需义务,而隐蔽单位太多,可能会变得迟缓而难以练习,残差噪音很难清除。

为什么?

正则化(Regularization)——平日以dropout、noise或收集随机过程的某种情势进行,是练习神经收集的另一个无法改变的方面。即使你认为你拥有比参数多得多的数据量,或过拟合不重要的情况,或没出现过拟合,你仍然应当添加dropout或其他情势的noise。

再想想你的数据值实际代表什么,以及它们在标准化今后典范围。最可能的情况是,你的输出值为unbounded正数或负数——在这种情况下,你不该在最终层应用激活函数。如不雅你的输出值只在某些范围内有意义,例如由0-1内的概率构成,那么最终层应当有应用特定的激活函数,例如Sigmoid激活函数。

还须要留意

在最后一层应用激活函数有很多须要留意的处所。也许你知道你的体系最终会将输出裁剪到 [-1,1]。那么,将这个裁剪过程添加到最终层的激活傍边就是有意义的,因为这精确保你的收集缺点函数不会处罚大年夜于1或小于-1的值。然则,没出缺点也意味着这些大年夜于1或小于-1的值也不会有梯度——这在某些情况下会使你的收集无法练习。或者,你可能会测验测验在最后一层应用tanh,因为这个激活函数输出的值典范围是 [-1, 1],但这也可能带来问题,因为这个函数的梯度在1或-1邻近变得异常小,而为了产生-1或1可能使你的权重变得异常大年夜。一般来说,最好保险起见,不要在最后一层应用激活函数。有时刻聪慧反被聪慧误。


  推荐阅读

  程序员都应该懂一点开源协议

让雷军倍感压力的00后CEO,联袂300名最小年纪仅为10岁出头的员工们,竟豪言:一些三四十岁的老前辈已经看不懂互联网。可就在被查访的短视频方才传递开来的时刻,剧情忽然三百六十度大年夜>>>详细阅读


本文标题:深度学习的这些坑你都遇到过吗?神经网络11大常见陷阱及应对方法

地址:http://www.17bianji.com/lsqh/37227.html

关键词: 探索发现

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
自媒体专栏

评论

热度

精彩导读
栏目ID=71的表不存在(操作类型=0)