大模型推理速度测评的实战代码

  大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。

  今天给大家带来的文章是大模型推理速度测评的实战代码,希望能对学习大模型的同学们有所帮助。

文章目录

1. 前言

  最近有同学提出新的疑问,大模型推理速度的单位为token/s,那么如何得到不同模型对应的具体速度呢?更进一步,如何在不同的GPU上对不同的大模型进行速度测评呢?
在这里插入图片描述

2. 实战代码

  需要说明的是,本文是在Linux+CUDA 12.2+Python 3.10+transformers 4.36.2 环境下复现成功的。建议大家将GPU驱动、CUDA、CuDNN均升级为到CUDA最新版本12.2。

  这里以Qwen-14B-Chat为例,其他模型请自行修改路径:

 

猜你喜欢

转载自blog.csdn.net/herosunly/article/details/135414984
今日推荐