这里只展示了收集构造的基本设备,也占用了大年夜量的篇幅。一般来说,这个文件中的内容跨越100行都是再常见不过的事。而像大年夜名鼎鼎的ResNet收集,它的文件长度平日在千行以上,更是让人难以浏览。那么问题来了,那么大年夜的收集文件都是靠人直接编辑出来的么?不必定。有的人会比较有耐烦地一点点写完,而有的人则不会愿意做如许的苦力活。实际上Caffe供给了一套接口,大年夜家可以经由过程写代码的情势生成这个文件。如许一来,编写模型设备的工作也变得简单不少。下面展示了一段生成LeNet收集构造的代码:
最毕生成的结不雅大年夜家都熟知,这里就不给出了。
- layer {
- name: "data"
- type: "Data"
- top: "data"
- top: "label"
- transform_param {
- scale: 0.00390625
- mirror: false
- }
- data_param {
- source: "123"
- batch_size: 128
- backend: LMDB
- }
- }
- layer {
- name: "conv1"
- type: "Convolution"
- bottom: "data"
- top
推荐阅读
(机械进修是一个大年夜范畴。本文侧重的范畴是深度进修——这是我最熟悉的一个分区。)在研究兴趣方面,我们看到的是 1)风格转换、2) 深度强化进修、3) 神经收集机械翻译 (&ldqu>>>详细阅读
本文标题:Caffe的深度学习训练全过程
地址:http://www.17bianji.com/lsqh/34962.html
1/2 1