Wie bekomme ich Tensorflow-Keras dazu, meine GPU zu verwenden?Python

Python-Programme
Guest
 Wie bekomme ich Tensorflow-Keras dazu, meine GPU zu verwenden?

Post by Guest »

Ich versuche, Keras in Tensorflow zu verwenden, um ein CNN-Netzwerk für eine Bildklassifizierung zu trainieren. Offensichtlich ist das Training auf meiner CPU unglaublich langsam und daher muss ich für das Training meine GPU verwenden. Ich habe auf StackOverflow viele ähnliche Fragen gefunden, von denen mir keine geholfen hat, die GPU zum Laufen zu bringen, daher stelle ich diese Frage separat.
Ich habe eine NVIDIA GeForce GTX 1060 3 GB und der 466.47 NVIDIA-Treiber installiert. Ich habe das CUDA-Toolkit von der NVIDIA-Website installiert (die Installation wird mit dem Befehl nvcc -V bestätigt, der meine Version 11.3 ausgibt) und die CUDNN-Bibliothek heruntergeladen. Ich habe die CUDNN-Datei entpackt und die Dateien nach C:\Programme\NVIDIA GPU Computing Toolkit\CUDA\v11.3 kopiert, wie auf der NVIDIA-Website angegeben. Schließlich habe ich überprüft, ob es sich auf PATH befindet (C:\Programme\NVIDIA GPU Computing Toolkit\CUDA\v11.3\bin und C:\Programme\NVIDIA GPU Computing Toolkit\CUDA\v11.3\libnvvp sind beide). in der Umgebungsvariablen 'Pfad').
Ich richte dann eine Umgebung mit Conda ein und lade einige Pakete herunter, die ich benötige, z scikit-learn sowie tensorflow-gpu=2.3 Nachdem ich meine Umgebung in Jupyter Notebook gebootet habe, führe ich diesen Code aus, um zu überprüfen, ob er die GPU aufnimmt:

Code: Select all

import tensorflow as tf
print(tf.__version__)
print(tf.config.list_physical_devices())
Und erhalten Sie Folgendes:
2.3.0
[PhysicalDevice(name='/physical_device:CPU:0', device_type=' CPU')]
Ich habe buchstäblich alles versucht, was mir zu diesem Thema in den Sinn kam, aber es gelingt mir nicht, es zum Laufen zu bringen. Jede Hilfe wäre dankbar.

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post