TensorRT安装小记

 docker中查看cuda和cudnn版本

查看cuda版本
cat /usr/local/cuda/include/cudacat /usr/local/cuda/version.txt

查看cudnn版本
cat /usr/include/cudnn.h | grep CUDNN_MAJOR -A 2 或
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
错误信息
sampleMNIST.cpp:9:30: fatal error: cuda_runtime_api.h: No such file or directory


解决方案:
sudo make clean
sudo make CUDA_INSTALL_DIR=/usr/local/cuda

docker配置教程

1.docker搜索

docker search tensorrt

我选择的是标红框的docker,直接拉到服务器上

docker pull ismconnectiris/tensorrt4-cuda9_0-cudnn7-pycuda

2.docker下载成功后,发现cuda环境配置好了,但是cudnn需要自己配置,下载链接https://developer.nvidia.com/rdp/cudnn-archive

然后执行如下命令安装cudnn

dpkg -i libcudnn7_7.3.0.29-1+cuda9.0_amd64.deb

3.配置TensorRT

cuda和cudnn都配置完成后,开始下载tensorrt,下载链接:https://developer.nvidia.com/tensorrt

下载完后,解压进入TensorRT根目录,修改环境变量,加入TensorRT/lib路径

进入python路径
pip install tensorrt-5.0.2.6-py2.py3-none-any.whl

进入uff路径
pip install uff-0.5.5-py2.py3-none-any.whl

进入graphsurgeon路径
pip install graphsurgeon-0.3.2-py2.py3-none-any.whl

然后就可以运行mnist例子啦

发布了38 篇原创文章 · 获赞 8 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/u014090429/article/details/94393280