版权声明:转载请说明链接~~~ https://blog.csdn.net/weixin_40546602/article/details/88892008
在深度学习任务中,通常需要远程访问服务器做模型训练。当遇到大量数据集时,将数据从本地拷贝到服务器特别耗时。在中间训练过程中,如果遇到批量化分数据集时,不可能再重新在本地处理好之后,再ftp传送到服务器。此时就需要用到在linux系统中的批量文件操作。
本篇博客主要记录批量处理含有特殊关键字(视自己所需)的文件。
比如我们现在在做一个猫和狗的图片分类,拥有两个文件夹,分别为data/cat/ 和data/dog。
完成二分类后,我们想细致一下,只做狗的分类,data/dog中包括哈士奇(hashiqi)和金毛(jinmao)两种狗类图片。现在的任务需要我们分别建立文件夹data/hashiqi,data/jinmao,并将各自对应的图片放进去。
data/
--- dog/
dog1_hashiqi_1.jpg
dog2_jinmao_1.jpg
dog3_hashiqi_2.jpg
(1)第一步:批量复制文件名含关键字的文件。(通配符的使用)
>>> cp -if dog*_hashiqi_1.jpg /data/hashiqi
(2) 第二步:批量删除文件名含关键字的文件。
扫描二维码关注公众号,回复:
6230996 查看本文章
>>> rm -if dog*_hashiqi_1.jpg
最后将data/dog文件夹改为data/jinmao即可。