作家
登录

十年云计算老兵零基础进军深度学习方法论

作者: 来源: 2017-10-17 10:20:34 阅读 我要评论

到了创建模型的下半段是选择收集构型,我们选择 LeNet 即可,将模型定名为 TestA。

-- 下图是 11 测试模型 --

-- 下图是 07 选择 LeNet --

此次 Demo 我们没做细节设置,但临盆情况可能要经常修改设备文件。

-- 下图是 08 微调 LeNet --

接下来就开端生成模型了,小数据集简单义务的速度照样很快的,并且验证精确率很高。然则如不雅是大年夜义务大年夜模型,可能会算上几天时光。

-- 下图是 09 开端生成模型 --

模型生成完成,我们再看一下验证精确率很高了,如不雅临盆情况精确率太低,可能你要微调创建模型的参数。

-- 下图是 10 练习完成后的 accuracy--

调试模型

在模型页面往下拖就可以看到下载模型、测试模型等按钮,我们选择测试模型,将那个“白底红字 2”提交做个测试。

默认是测试 Epoch #30,我们先跑 10 次尝尝。本来想免得办事器电费,结不雅只有 20.3% 的几率辨认精确。

我们看到完全雷同设备的模型,只因为点击生成模型的时光不合,对同一个图片的辨认结不雅确千差万别,再次强调这不是因不雅断定而是相干性计算。实验结论和我上文的主意雷同,模型须要拿拭魅战数据进行实际练习,且我们只能预估但不克不及猜测模型生成结不雅。我做这个实验就是给大年夜家解释,AI 模型练习不是软件外包,不是谈拢了价格就能筹划人日预估效不雅的。

我们进步测试圈数到 25 圈,结不雅精确率大年夜 20.3% 进步到了 21.9%。

-- 下图是 13TestA 模型 25 圈结不雅 --

全部模型的上限是 30 圈,精确辨认结不雅也才 21.92%。到了这里我插一句,未精确辨认可能是因为我的建模数据是 28*28 的诟谇图,而我给测试图片大年夜小和色彩都纰谬。

改换模型持续调试

在 TestA 这个模型上可以点克隆义务,即制造一个同设备的模型再跑一次;这个按糯竽暌剐意思啊,我们以前编译法度榜样不经由过程的时刻,retry 十万次也是不经由过程啊,为什么克隆义务是个面板常用按钮?

-- 下图是 15 克隆模型 TestA --

-- 下图是 14TestA 模型 30 圈结不雅 --

这时好玩的工作产生了,我做出的“TestA-Clone”,辨认出数字 2 的几率是 94.81%。

-- 下图是 16 克隆 TestA 结不雅 --

我们再把老模型克隆一次,结不雅辨认出数字 2 的几率是 63.4%。

-- 下图是 17 再次克隆 TestA 结不雅 --

这是创建完成数据集的柱形统计图,鼠标正好停在第二个柱形上,显示当前标记为“9”的图片有 466 个。

我新建一个模型 TestB,让它在 TestA 的基本上再次练习。

-- 下图是 18 新建 TestB --

-- 下图是 21 模型结不雅汇总 --

TestB 的练习结不雅反而不如最早的那一版模型,精确率 20.69%。

-- 下图是 19TestB 的练习结不雅 --

没有最惨只有更惨,看我新练习的模型 TestC。

-- 下图是 20TestC 练习掉败 --

大年夜此次测试看,最好的模型是 TestA-Clone,其次是 Clone2。


  推荐阅读

  如何解决磁盘满载的问题

祸首祸首应当就是这Ngnix的access.log 沙龙晃荡 | 去哪儿、陌陌、ThoughtWorks在主动化运维中的实践!10.28不见不散!cd /var/log/nginx du -hs * 已经良久没有存眷本身的博客了,待回来细看时,发明文┞>>>详细阅读


本文标题:十年云计算老兵零基础进军深度学习方法论

地址:http://www.17bianji.com/lsqh/37981.html

关键词: 探索发现

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
自媒体专栏

评论

热度

精彩导读
栏目ID=71的表不存在(操作类型=0)