Le code téléchargé sur github, s'il s'agit d'un code ou d'un projet Python, a généralement une dépendance d'environnement. Chaque fois qu'un package différent est téléchargé, la version précédente du package sera écrasée. Par conséquent, il faut souvent un algorithme et un environnement virtuel pour exécuter le code.
Prenez ce code de projet github comme exemple pour présenter comment exécuter un projet ( adresse de code , cet algorithme est le code source du document CIKM 2020 « Fast Attributed Multiplex Heterogeneous Network Embedding », téléchargez-le et décompressez-le sur le serveur)
1 Connectez-vous au serveur
2 Affichez l'environnement virtuel du serveur
conda env list
或 conda info -e
3 Créez un environnement virtuel
conda create -n env_name python=X.X
Le nom que j'ai utilisé est FAME_py36 et la version sélectionnée est la 3.6. Il vous sera demandé plus tard si vous souhaitez télécharger des bibliothèques intégrées, choisissez y
4 Activez l'environnement virtuel
source activate FAME_py36
5 Installer les packages dépendants
pip install -r requirments.txt
ps: Arrivez d'abord sur le chemin FAME-master, sinon le fichier d'exigences ne sera pas trouvé
6 Exécutez le code
python main.py
7 Fermez l'environnement virtuel
désactiver la source
Ou désactiver (système Windows)
Si vous devez supprimer l'environnement virtuel FAME_py36: conda remove -n FAME_py36 --all
Si vous devez supprimer un package dans l'environnement virtuel FAME_py36: conda remove --name FAME_py36 package_name
Si vous devez installer différentes versions de l'accélération CUDA, vous pouvez vous référer à la commande suivante: URL de référence
Linux and Windows
# CUDA 9.2
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=9.2 -c pytorch
# CUDA 10.1
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.1 -c pytorch
# CUDA 10.2
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.2 -c pytorch
# CPU Only
conda install pytorch==1.6.0 torchvision==0.7.0 cpuonly -c pytorch
Vérifiez s'il existe une commande d'accélération CUDA: reportez - vous au site Web
import torch
torch.cuda.is_available()
Si c'est faux, alors vous devez d'abord regarder votre version CUDA
nvcc -V
Le mien est 9.0, et maintenant j'ai deux idées, l'une est de mettre à jour le pilote CUDA, l'autre est d'installer le pytorch et torchvision correspondants, téléchargez la version correspondante sur le site de référence ci-dessus.
Vérifiez la version du pilote: nvida-smi
Configuration du Tesla K40C: