Configurer TensorRT
1. Téléchargez TensroRT : Lien : https://developer.nvidia.com/nvidia-tensorrt-8x-download
2. Décompressez le fichier téléchargé, déplacez le fichier d'inclusion dans TensorRT vers l'inclusion dans le dossier CUDA et placez les fichiers dll et lib dans la bibliothèque du fichier TensorRT dans bin et lib\x64 dans cuda respectivement
. et installez ces quatre fichiers respectivement.
pip install tensorrt-8.2.5.1-cp37-none-win_amd64.whl
4. Téléchargez cudnn64_8.dll et placez le fichier dans
le répertoire C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\bin
5. Exécutez le code
import torch
import tensorrt as trt
print(trt.__version__)
print(torch.cuda.is_available())
6. Exécutez l'exemple et modifiez les emplacements spécifiés.
7. Téléchargez cudnn : https://developer.nvidia.com/rdp/cudnn-download et copiez les fichiers des trois dossiers dans les dossiers correspondants sous NVIDIA GPU Computing Toolkit.
8, téléchargez le fichier zlibwapi.dll et placez le fichier dans le dossier system32. Si les résultats d'exécution
sont incorrects, veuillez les corriger (merci)