pytorch が正しくインストールされていることを確認するにはどうすればよいですか?

次の手順に従って、PyTorch が正しくインストールされたことを確認できます。

  1. Python または IPython シェル (または作成した conda 環境の Python シェル) を開きます。

  2. 次のコードを入力します。

    import torch
    print(torch.__version__)
    

    このコードは、インストールした PyTorch のバージョンを出力します。エラーがなく、バージョン番号が正しく出力されている場合は、PyTorch が正しくインストールされていることを意味します。

  3. 基本的なテンソル演算が実行できるかどうか、GPU を計算に使用できるかどうかなど、さらに詳しいチェックを実行することもできます。以下に簡単なテストを示します。

    x = torch.rand(5, 3)
    print(x)
    

    このコードは、ランダムな 5x3 テンソルを作成し、その値を出力します。エラーがなく、テンソルの値が正しく出力された場合、これは PyTorch が正しくインストールされており、基本的なテンソル操作を実行できることを意味します。

  4. 計算に GPU を使用できるかどうかをテストしたい場合は、次のコードを実行できます。

    if torch.cuda.is_available():
        x = x.to("cuda")
        print(x)
    else:
        print("CUDA is not available")
    

    このコードは、テンソルをxGPU に移動し、その値を出力しようとします。エラーがなく、テンソルの値が正しく出力された場合は、PyTorch が正しくインストールされており、GPU を計算に使用できることを意味します。「CUDA は使用できません」と表示された場合は、環境内に使用可能な CUDA デバイスがないか、PyTorch が CUDA を使用するように適切に構成されていないことを意味します。

AMD GPUで動作するかどうかを確認するにはどうすればよいですか?

AMD GPU の場合、ROCm (Radeon Open Compute) プラットフォームを使用している場合は、Nvidia の CUDA と同様の方法を使用して検出できます。

まず、ROCm が正しくインストールされていることを確認する必要があります。これを確認するには、ターミナルに次のコマンドを入力します。

/opt/rocm/bin/rocminfo

このコマンドは、ROCm のインストール情報と GPU 情報を出力します。

次に、Python 環境で次のテストを実行して、PyTorch が AMD GPU で実行できるかどうかを確認できます。

import torch

if torch.cuda.is_available():
    x = torch.rand(5, 3).cuda()
    print(x)
else:
    print("No AMD GPU available")

このコードは、ランダムな 5x3 テンソルをxGPU に移動し、その値を出力しようとします。エラーがなく、テンソル値が正しく出力される場合、PyTorch は AMD GPU で実行できます。「利用可能な AMD GPU がありません」と表示された場合は、環境内で利用可能な AMD GPU がないか、PyTorch と ROCm が AMD GPU を使用するように適切に構成されていません。

ROCm バージョンの PyTorch は、通常の PyTorch インストール ルートではなく、特定の場所からインストールする必要がある場合があることに注意してください。ROCm のドキュメントまたは関連するインストール ガイドに従う必要があります。

おすすめ

転載: blog.csdn.net/m0_57236802/article/details/131866371