Windowsの下、torch.cuda.is_available()とtf.test.is_gpu_AVailable()はfalseを返します


最近、新しいコンピュータに深い学習環境を設定しています.特に新しいCUDAではない(適合していないのではないかと心配)バージョンで手配し、CUDAとCUDNNをインストールするのは正常で、nvcc-Vをテストし、C:UserspsDownloadscudnn-11.2-windows-x 64-v 8.1.0.77cudaファイルの下の2つのexe、bandwidthTest.exeとdeviceQuery.exeを実行する場合、いずれもtest passである.ただし、torch 1.7とtensorflow 2をインストールした後、GPUを呼び出すことができるかどうかをテストするのに失敗し、ほぼ1日の様々な試みを経たああ、この問題を解決しました.問題の表現の1つ:Windowsの下で、torch.cuda.is_available()とtf.test.is_gpu_AVailable()はfalseを返します
問題の表現の2:nvidia-smiはcudaバージョンが11.0であることを見て、nvcc-Vはバージョンが10.2であることを表示して、この状況は説明します:
CUDA    API,       API    API, Runtime API   Driver API。
nvidia-smi        GPU       ,   CUDA Driver API   。
 nvcc       CUDA Runtime API。
    API 11.0,   API 10.2

ネット上で提供されているソリューションを見て、最も多くのことを言っているのは、駆動APIがランタイムAPIより高いことであり、私の状況も合っていることを考えています.その後、10.2だったのか、それとも似合わなかったのか、CUDAバージョンを降格してみたが、それぞれ10.0、0.1などを試みたが、いずれも失敗した.はい、それから大胆に11.0バージョンを試してみてください.それからいいです.結論1:
    nvidia-smi   CUDA API    CUDA
        ,  CUDA11     ,torch   ,      。

今、tf.test.is_gpu_AVailable()はTrueを返します.
问题2:豆弁源を使ってpytorchをインストールして、pip install pytorchは意外にも1つの180 MBのバッグで、多分CPUバージョンだと推測して、清華源/公式サイトを使って直接インストールするのは失敗して、そこで梯子を掛けて公式サイトに行って対応バージョンをダウンロードして、それから現地でインストールして、成功しました.
最後に、関連ソフトウェアのバージョンを共有します.
  :
NVIDIA-SMI 451.67       Driver Version: 451.67       CUDA Version: 11.0
      :[451.67,                   ](https://cn.download.nvidia.cn/Windows/451.67/451.67-notebook-win10-64bit-international-whql.exe)

CUDA:11.0
CUDA     :[CUDA    ](https://developer.nvidia.com/cuda-toolkit-archive)

CUDNN:8.2[CUDNN    ](https://developer.nvidia.com/cudnn)
    CUDNN     ,Windows       64 。

tensorboard==2.4.1
tensorboard-plugin-wit==1.8.0
tensorflow-estimator==2.4.0
tensorflow-gpu==2.4.1
termcolor==1.1.0
torch @ file:///C:/Users/ps/Downloads/torch-1.7.1%2Bcu110-cp37-cp37m-win_amd64.whl
 ,torch      ,1.7.1

ローカルにインストールされたtorchを使用すると、torch.cuda.is_available()はTrueに戻ります.問題が解決する.
もうすぐ4枚のTitan Vの楽しい生活が始まります.前の2世代の製品ですが、私が使った最高のグラフィックスカードでもあります.
CUDAとCUDNNはネットディスクにアップロードしました:ネットディスク抽出コード:8 lm 3