Wie kann ich verhindern, dass TensorFlow den gesamten GPU-Speicher zuweist?Python

Python-Programme
Anonymous
 Wie kann ich verhindern, dass TensorFlow den gesamten GPU-Speicher zuweist?

Post by Anonymous »

Ich arbeite in einer Umgebung, in der Rechenressourcen gemeinsam genutzt werden, d. h. wir haben einige Servermaschinen, die jeweils mit ein paar Nvidia Titan X-GPUs ausgestattet sind.
Bei kleinen bis mittelgroßen Modellen reichen die 12 GB der Titan Wenn die Modelle so klein sind, dass ein einzelnes Modell nicht alle Recheneinheiten der GPU vollständig ausnutzt, kann dies tatsächlich zu einer Beschleunigung führen, verglichen mit der Ausführung eines Trainingsprozesses nach dem anderen. Selbst in Fällen, in denen der gleichzeitige Zugriff auf die GPU die individuelle Trainingszeit verlangsamt, ist es dennoch schön, die Flexibilität zu haben, mehrere Benutzer gleichzeitig auf der GPU trainieren zu lassen.
Das Problem mit TensorFlow besteht darin, dass es beim Start standardmäßig die volle Menge an verfügbarem GPU-Speicher zuweist. Selbst bei einem kleinen zweischichtigen neuronalen Netzwerk sehe ich, dass alle 12 GB des GPU-Speichers aufgebraucht sind.
Gibt es eine Möglichkeit, dass TensorFlow beispielsweise nur 4 GB GPU-Speicher zuweist, wenn man weiß, dass dies für ein bestimmtes Modell ausreicht?

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post