Cuda aus dem Gedächtnis, wenn es viel verfügbar gibt
Posted: 23 Feb 2025, 10:12
Ich habe Probleme mit der Verwendung von Pytorch und Cuda. Manchmal funktioniert es einwandfrei, manchmal sagt es mir RunTimeError: Cuda aus dem Speicher. Code>, der theoretisch über 5GIB verfügbar sein sollte.
Bei der Ausführung meines Programms werde ich jedoch mit der Nachricht begrüßt:
Es sieht so aus . Wie kann das sein? Angesichts dieser Zahlen sollte eine Menge GPU -Speicher hinterlassen werden.
Bei der Ausführung meines Programms werde ich jedoch mit der Nachricht begrüßt:
Code: Select all
RuntimeError: CUDA out of memory. Tried to allocate 578.00 MiB (GPU 0; 5.81 GiB total capacity; 670.69 MiB already allocated; 624.31 MiB free; 898.00 MiB reserved in total by PyTorch)
Es sieht so aus . Wie kann das sein? Angesichts dieser Zahlen sollte eine Menge GPU -Speicher hinterlassen werden.