作家
登录

神经网络基础:七种网络单元,四种层连接方式

作者: 来源: 2017-07-05 16:28:21 阅读 我要评论

Neural Network Cells1

Neural Network Cells2

根本的神经收集单位,属于惯例性前馈架构之中的类型,且相当简单。单位经由过程权重与其他神经元相连接,即,它可以连接到前一层的所有神经元。每个连接有其自身的权重,在开端时它经常是一个随机数。一个权重可所以负数、正数、小值、大年夜值或者为 0。它连接的每一个单位值被其各自的连接权重相乘,获得的结不雅值全部相加。在其顶部,也挥萼加一个偏置项。偏置项可以防止单位陷入零点输出(outputting zero),加快其操作,并削减解决问题所需的神经元数量。偏置项也是一个数,有时是常数(平日是 -1 或 1),有时是变量。这一总和接着传递至激活函数,获得的结不雅值等于单位值。

Cell(单位)

《The Neural Network Zoo》一文┞饭示了不合类型的单位和不合的层连接风格,但并没有深刻商量每个单位类型是若何工作的。大年夜量的单位类型拥有彼此不合的色彩,大年夜而更清楚地区分收集,然则自此之后我发明这些单位的工作方法大年夜同小异,下面我对每个单位一一描述。

basic cell

卷积单位和前馈单位很像,除了前者平日连接到前一层的仅仅少数几个神经元之外。它们常用于保护空间信息,因为其连接到的不是少数几个随机单位,而是必定距离内的所有单位。这使得它们很合适处理带有大年夜量局部信息的数据,比如图像和音频(但大年夜部分是图像)。解卷积单位与卷积单位相反:前者偏向于经由过程局部连接到下一层来解码空间信息。两个单位平日有独自练习的克隆(clone),每个克隆各有其权重,并以雷同的方法互相连接。这些克隆可被看做具有雷同构造的分别收集。两者本质上和惯例单位雷同,然则应用不合。

卷积连接层要比全连接层更受限制:每个神经元只与其他组邻近的神经元连接。图像和音频包含大年夜量的信息,不克不及一对一地被用于直接馈送到收集(例如,一个神经元对应一个像素)。卷积连接的思路来自于对保存重要的空间信息的不雅察。结不雅证实,这是一个好的设法主意,被用于很多基于神经收集的图像和语音应用中。但这种设置没有全连接层更具表达力。其实它是一种「重要性」过滤的方法,决定则些紧凑的信息数据包中哪些是重要的。卷积连接对降维也很棒。依附其实现,及时空间上异常远的神经元也能连接,但量程高于 4 或 5 的神经元就很少被用到了。留意,这里的「空间」平日指代二维空间,用这种二维空间表达神经元互相连接的三维面。连接范围在所有的维度都能被应用。

池化和内插单位(interpolating cell)频繁地与卷积单位相连接。这些单位实际上并不是单位,而是原始操作。池化单位接收输入的连接并决定哪些连接获得经由过程。在图像中,这可被看做是缩小图片。你再也看不到所有的像素,并且它不得不进修哪些像素应当保存哪些舍弃。内插单位履行相反的操作,它们接收一些信息并将其映射到更多的信息。额外信息是构成的,就像放年腋荷琐低分辨率图片一样。内插单位不是池化单位独一的反转操作,然则二者相对来讲比较广泛,因为其实现快速而简单。它们各自连接,这很像卷积与解卷积。

平均值与标准差单位(几乎美满是作为概率性单位被查对发明)用于表征概率分布。平均值就是平均值,标准差是指在两个偏向上能偏离这个平均值有多远。例如,一个用于图像的概率 cell 可以包含一个特定像素上有若干红色的信息。比如说平均值为 0.5,标准差为 0.2。昔时夜这些概率单位中取样时,须要在高斯随机数生成器中输入这些值,值袈溱 0.4 到 0.6 之间的为可能性相昔时夜的结不雅;那些远离 0.5 的值可能性则很低(但依然有可能)。平均值与标准差 cell 经常全连接到前一层或下一层,并且没有误差。

单位1

轮回单位不仅连接到层,并且跟着时光推移还会有连接。每个单位内部存储有先前的值。它们就像根本单位一样被更新,然则带有额外的权重:连接到单位的先前值,并且绝大年夜部分时光也连接到同一层的所有单位。当前值和存储的先前值之间的┞封些权重更像是一个易掉性存储器(a volatile memory),就像 RAM,接收拥有一个特定「状况」的属性,同时如不雅没被馈送则消掉。因为先前值被传递到激活函数,并且经由过程激活函数每一个更新传递这个激活的值连带其他的权重,所以信息将赓续损掉。事实上,保存率是如斯之低,以至于在 4 至 5 次迭代之后,几乎所有的信息都损掉了。

单位2

长短期记忆单位用于解决产生在轮回单位中信息快速损掉的问题。LSTM 单位是逻辑回路,复制了为电脑设计内存单位的方法。相较于存储两个状况的 RNN 单位,LSTM 单位可存储四个:输出的当前值和最终值,以及「内存单位」状况的当前值和最终值。LSTM 单位包含三个「门」:输入门、输出门、遗忘门,并且也仅包含惯例输入。这些门中每一个各有其权重,这意味着连接到这种类型的 cell 须要设置四个权重(而不是仅仅一个)。门函数很像流门(flow gate),而不像栅门(fence gates):它们可以让任何器械经由过程,只是一点点,没有,或者之间的任何。这经由过程与值袈溱 0 到 1(储存在这一门值中)之间的输入信息相乘而发患咀用。输入门接着决定有若干输入可被参加到单位值中。输出门决定有若干输出值可通多余余的收集被看到。遗忘门并不与输出单位的先前值相连接,但却竽暌闺先前的内存单位值相连接。它决定了保存若干最终的内存单位状况。因为它不连接到输出,所以信息损掉更少,因为轮回中没有放置激活函数。


  推荐阅读

  高效Java程序员不能错过的10+个最佳库

众所周知,Java 的生态情况相当宏大年夜,包含了数量相当可不雅的官方及第三方库。应用这些库,可以解决在用 Java 开辟时碰到的各类问题,闪开辟效力获得明显晋升。举些例子,最常用的官>>>详细阅读


本文标题:神经网络基础:七种网络单元,四种层连接方式

地址:http://www.17bianji.com/lsqh/36051.html

关键词: 探索发现

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
自媒体专栏

评论

热度

精彩导读
栏目ID=71的表不存在(操作类型=0)