1.下载网址NVIDIA TensorRT 8.x Download | NVIDIA Developer
TensorRT不同的版本依赖于不同的cuda版本和cudnn版本。根据自己电脑的cuda版本和cudnn版本来决定要下载哪个TensorRT版本
查看cudnn版本
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2或者:
cudnn文件存在于/usr/include/文件夹下。cd进入/usr/include/文件夹,查看cudnn的版本:
cd /usr/include/
cat cudnn_version.h
cudnn升级参考:Linux之cudnn升级方法_宗而研之的博客-CSDN博客
2.安装trt:
首先解压下载的TensorRT安装包
tar -xzvf TensorRT-8.5.1.7.Linux.x86_64-gnu.cuda-11.8.cudnn8.6.tar.gz
添加环境变量
vim ~/.bashrc
export LD_LIBRARY_PATH=/path/TensorRT-8.5.1.7/lib:$LD_LIBRARY_PATH
export LIBRARY_PATH=/path/TensorRT-8.5.1.7/lib::$LIBRARY_PATH
这里的path换成你自己的TensorRT路径。保存退出后,执行:
source ~/.bashrc
- python调用TensorRT API
进入TensorRT文件夹下的python文件夹,执行以下命令,安装python接口的tensorrt。pip install ./tensorrt-8.5.1.7-cp38-none-linux_x86_64.whl
这里的cpXX对应的是你的python版本。
uff组件
进入uff文件夹,安装uff组件。pip install ./uff-0.6.9-py2.py3-none-any.whl
安装graphsurgeon
进入graphsurgeon文件夹,执行以下命令:pip install ./graphsurgeon-0.4.6-py2.py3-none-any.whl
安装onnx_graphsurgeon
进入onnx_graphsurgeon文件夹,执行以下命令:pip install ./onnx_graphsurgeon-0.3.12-py2.py3-none-any.whl
综上我们已经安装了python调用TensorRT的一些库。除此之外,我们还要安装pycuda库,使用pip install安装即可。
3.验证TensorRT是否安装正确,cd进入samples文件夹
cd samples
make -j8
如果环境什么都没出错的话,这里编译是会很顺利的。然后cd进入bin文件夹,
cd ..
cd bin
./sample_onnx_mnist
至此结束