Page 1 of 1

Cuda aus dem Gedächtnis, wenn es viel verfügbar gibt

Posted: 23 Feb 2025, 10:12
by Guest
Ich habe Probleme mit der Verwendung von Pytorch und Cuda. Manchmal funktioniert es einwandfrei, manchmal sagt es mir RunTimeError: Cuda aus dem Speicher. Code>, der theoretisch über 5GIB verfügbar sein sollte.

Bei der Ausführung meines Programms werde ich jedoch mit der Nachricht begrüßt:

Code: Select all

RuntimeError: CUDA out of memory. Tried to allocate 578.00 MiB (GPU 0; 5.81 GiB total capacity; 670.69 MiB already allocated; 624.31 MiB free; 898.00 MiB reserved in total by PyTorch)

Es sieht so aus . Wie kann das sein? Angesichts dieser Zahlen sollte eine Menge GPU -Speicher hinterlassen werden.