ollama部署deepseek之后,保持模型永远被加载在GPU之中!

常见问题:

我们在使用ollma部署大语言模型的时候,如果部署的模型尺寸较大,往往在第一次加载的时候需要花费大量的时间加载模型;等加载完成后,如果长时间不调用模型,我们会发现模型已经被释放掉了,又要重新加载,导致体验感极差。
这是因为在没被调用时,ollama默认在显存中驻留5min,然后就会自动释放,如果我们两次调用的间隔大于5min的话,那模型已经被释放了,又要重新加载;

解决办法:
如预加载模型,并永远驻留在显存!

  curl http://localhost:11434/api/generate -d '{
    
    "model":"llama2","keep_alive”: -1}

参数:
model:模型名称
keep_alive:保持时间。解释如下“”
持续时间字符串(如‘10M’, ‘24H’);
以秒为单位的数字(如 3600);
-1表示永远驻留在显存中;
0表示接受一次响应后立即清除模型;
使用方法
方法如下:
如预加载模型,并永远驻留在显存

猜你喜欢

转载自blog.csdn.net/ssp584731180/article/details/145606515
今日推荐