Ich arbeite in einer Umgebung, in der Rechenressourcen gemeinsam genutzt werden, d. h. wir haben einige Servermaschinen, die jeweils mit ein paar Nvidia Titan X-GPUs ausgestattet sind.
Bei kleinen bis mittelgroßen Modellen reichen die 12 GB der Titan Wenn die Modelle so klein sind, dass ein einzelnes Modell nicht alle Recheneinheiten der GPU vollständig ausnutzt, kann dies tatsächlich zu einer Beschleunigung führen, verglichen mit der Ausführung eines Trainingsprozesses nach dem anderen. Selbst in Fällen, in denen der gleichzeitige Zugriff auf die GPU die individuelle Trainingszeit verlangsamt, ist es dennoch schön, die Flexibilität zu haben, mehrere Benutzer gleichzeitig auf der GPU trainieren zu lassen.
Das Problem mit TensorFlow besteht darin, dass es beim Start standardmäßig die volle Menge an verfügbarem GPU-Speicher zuweist. Selbst bei einem kleinen zweischichtigen neuronalen Netzwerk sehe ich, dass alle 12 GB des GPU-Speichers aufgebraucht sind.
Gibt es eine Möglichkeit, dass TensorFlow beispielsweise nur 4 GB GPU-Speicher zuweist, wenn man weiß, dass dies für ein bestimmtes Modell ausreicht?
Wie kann ich verhindern, dass TensorFlow den gesamten GPU-Speicher zuweist? ⇐ Python
-
- Similar Topics
- Replies
- Views
- Last post
-
-
Wie kann ich den GPU -Speicher leeren, wenn ich einen Fehler wie OOM bekomme?
by Anonymous » » in Python - 0 Replies
- 24 Views
-
Last post by Anonymous
-
Mobile version