次の手順に従って、PyTorch が正しくインストールされたことを確認できます。
-
Python または IPython シェル (または作成した conda 環境の Python シェル) を開きます。
-
次のコードを入力します。
import torch print(torch.__version__)
このコードは、インストールした PyTorch のバージョンを出力します。エラーがなく、バージョン番号が正しく出力されている場合は、PyTorch が正しくインストールされていることを意味します。
-
基本的なテンソル演算が実行できるかどうか、GPU を計算に使用できるかどうかなど、さらに詳しいチェックを実行することもできます。以下に簡単なテストを示します。
x = torch.rand(5, 3) print(x)
このコードは、ランダムな 5x3 テンソルを作成し、その値を出力します。エラーがなく、テンソルの値が正しく出力された場合、これは PyTorch が正しくインストールされており、基本的なテンソル操作を実行できることを意味します。
-
計算に GPU を使用できるかどうかをテストしたい場合は、次のコードを実行できます。
if torch.cuda.is_available(): x = x.to("cuda") print(x) else: print("CUDA is not available")
このコードは、テンソルを
x
GPU に移動し、その値を出力しようとします。エラーがなく、テンソルの値が正しく出力された場合は、PyTorch が正しくインストールされており、GPU を計算に使用できることを意味します。「CUDA は使用できません」と表示された場合は、環境内に使用可能な CUDA デバイスがないか、PyTorch が CUDA を使用するように適切に構成されていないことを意味します。
AMD GPUで動作するかどうかを確認するにはどうすればよいですか?
AMD GPU の場合、ROCm (Radeon Open Compute) プラットフォームを使用している場合は、Nvidia の CUDA と同様の方法を使用して検出できます。
まず、ROCm が正しくインストールされていることを確認する必要があります。これを確認するには、ターミナルに次のコマンドを入力します。
/opt/rocm/bin/rocminfo
このコマンドは、ROCm のインストール情報と GPU 情報を出力します。
次に、Python 環境で次のテストを実行して、PyTorch が AMD GPU で実行できるかどうかを確認できます。
import torch
if torch.cuda.is_available():
x = torch.rand(5, 3).cuda()
print(x)
else:
print("No AMD GPU available")
このコードは、ランダムな 5x3 テンソルをx
GPU に移動し、その値を出力しようとします。エラーがなく、テンソル値が正しく出力される場合、PyTorch は AMD GPU で実行できます。「利用可能な AMD GPU がありません」と表示された場合は、環境内で利用可能な AMD GPU がないか、PyTorch と ROCm が AMD GPU を使用するように適切に構成されていません。
ROCm バージョンの PyTorch は、通常の PyTorch インストール ルートではなく、特定の場所からインストールする必要がある場合があることに注意してください。ROCm のドキュメントまたは関連するインストール ガイドに従う必要があります。