使用quiver进行网络可视化时的排雷过程

起因:这两天在赶论文,想要在文章中加入深度模型每层提取到的特征对比,查了一下,好像caffe在这方面的工具做的挺好的,tensorflow下好像没有特别好的工具,好不容易找到一个:quiver。这是一个针对keras平台的一个可视化工具,用flask在web上实现。具体可以看下这个视频YOUTUBE,是不是很炫?加到论文里一定效果不错。

直接介绍我的排雷过程吧,安装一切顺利,没有什么问题。

如果你机器上有使用GPU加速,在运行前先输入代码‘export BROWSER=google-chrome’,具体为什么我也不知道,反正我在这之前报错了

第一颗雷:开始用的时候,是用的VGG16,对没有指定标签的图像在运行的时候会显示下载imagenet的标签,但是!由于各种原因,你会发现无法下载

解决办法就是按上面说的地址自己下载,然后放到~/.keras/model/ 文件夹下。

第二颗雷:之后在VGG16下使用都没问题,问题出在InceptionV3和InceptionResNetV2下:




追踪错误可以发现是因为reshape出错,而且最后追到是没有参数传入,我猜想是因为获取模型输入图像参数出现了问题,众所周知InceptionV3和InceptionResNetV2的模型输入大小是(299,299,3)的图像,因而在输入前需要对输入图像reshape,而默认的输入图像大小一般是在定义模型的py文件中,我就开始追代码,在keras.application下的模型定义py文件中果然找到了


左边是InceptionV3中的,右边是VGG16中的,可以看到两者基本一样,只是在require_flatten这个参数不同,在本机的keras中修改这个文件,让require_flatten=include_top,(本机keras在‘~/.local/lib/python3.6/site-packages/keras/’),修改后就能准确获取默认图像大小了


第三颗雷:本以为一切顺利了,没想到在运行的时候又报错了


继续搜吧...找到一个issue,问题和我遇到的问题一模一样,找到的解决方案就是让系统动态占用显存


再次运行!终于好了TT

赶紧接着写论文了......

猜你喜欢

转载自blog.csdn.net/MacwinWin/article/details/78680287
今日推荐