微调Chinese-clip

1.搭建环境

git clone https://github.com/OFA-Sys/Chinese-CLIP.git

mkdir clip-data,和Chinese-CLIP文件夹同一级

conda create -n cn-clip python==3.10

conda activate cn-clip

cd /data/Chinese-CLIP/

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

2.数据模型准备

下载模型:

下载模型可以根据官方的指定地址下载,这次我们微调的是基础版本的也就是clip-cn-vit-b-16.pt, clip-data/pretrained_weights

https://github.com/OFA-Sys/Chinese-CLIP?tab=readme-ov-file#%E6%A8%A1%E5%9E%8B%E8%A7%84%E6%A8%A1--%E4%B8%8B%E8%BD%BD%E9%93%BE%E6%8E%A5

下载数据:

https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/datasets/MUGE.zip

这里面是标准的数据集格式,文件名是这个数据集的名字,将它放在clip-data/datasets目录下,并解压

修改脚本

使用run_scripts/muge_finetune_vit-b-16_rbt-base.sh这个基础版的脚本

主要是单卡或者多卡训练参数配置以及相关参数设置,batchsize lr这些等:

3.训练

执行命令,将这个进程挂到后台

        nohup bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /home/fsy23/CSDN/clip-data/ > train.log 2>&1 &

        训练日志我们可以通过两个地方看到,一个是我们自己在命令行指定的 train.log,一个是官方的指定目录。我们打开log

可能会出现报错:

修改:

在训练脚本里面,

在在cn_clip/training/params.py里面也要修改

还需要在cn_clip/training/main.py脚本里面修改一下,一共6处

重新运行一下脚本命令:

bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /data/LLM/clip-data/

单卡训练:

开始训练:

猜你喜欢

转载自blog.csdn.net/u012374012/article/details/143114840