数据量太大,内存不够怎么办?

最近遇到这个问题,上网查+问同学,基本解决方法:keras,Pipeline,批次读取训练

先看第一个,keras,可能需要改网络什么的,不太想改(先挖个坑,以后学一下keras,小白一只,勿怪)

第二个,pipeline,听起来高大上也很专业,上网搜罗了一堆资料:
https://www.cnblogs.com/zyly/p/8982335.html
https://blog.csdn.net/chenghtao/article/details/82110434
https://www.jianshu.com/go-wild?ac=2&url=http%3A%2F%2Fwiki.jikexueyuan.com%2Fproject%2Ftensorflow-zh%2Fhow_tos%2Fthreading_and_queues.html
http://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/reading_data.html
https://www.jianshu.com/p/12b52e54a63c
https://blog.csdn.net/guo1988kui/article/details/83896745
https://blog.csdn.net/west_609/article/details/78608541
(但是有点复杂,难理解,先挖个坑,以后学一下)

第三个:在知乎上找到一个回答,感觉还不错,来来来,尝试一下:
https://zhuanlan.zhihu.com/p/35866604

猜你喜欢

转载自www.cnblogs.com/Ann21/p/11090731.html