docker中查看cuda和cudnn版本
查看cuda版本
cat /usr/local/cuda/include/cudacat /usr/local/cuda/version.txt
查看cudnn版本
cat /usr/include/cudnn.h | grep CUDNN_MAJOR -A 2 或
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
错误信息
sampleMNIST.cpp:9:30: fatal error: cuda_runtime_api.h: No such file or directory
解决方案:
sudo make clean
sudo make CUDA_INSTALL_DIR=/usr/local/cuda
docker配置教程
1.docker搜索
docker search tensorrt
我选择的是标红框的docker,直接拉到服务器上
docker pull ismconnectiris/tensorrt4-cuda9_0-cudnn7-pycuda
2.docker下载成功后,发现cuda环境配置好了,但是cudnn需要自己配置,下载链接https://developer.nvidia.com/rdp/cudnn-archive
然后执行如下命令安装cudnn
dpkg -i libcudnn7_7.3.0.29-1+cuda9.0_amd64.deb
3.配置TensorRT
cuda和cudnn都配置完成后,开始下载tensorrt,下载链接:https://developer.nvidia.com/tensorrt
下载完后,解压进入TensorRT根目录,修改环境变量,加入TensorRT/lib路径
进入python路径
pip install tensorrt-5.0.2.6-py2.py3-none-any.whl
进入uff路径
pip install uff-0.5.5-py2.py3-none-any.whl
进入graphsurgeon路径
pip install graphsurgeon-0.3.2-py2.py3-none-any.whl
然后就可以运行mnist例子啦