Cuda aus dem Gedächtnis, wenn es viel verfügbar gibt

Post a reply

Smilies
:) :( :oops: :chelo: :roll: :wink: :muza: :sorry: :angel: :read: *x) :clever:
View more smilies

BBCode is ON
[img] is ON
[flash] is OFF
[url] is ON
Smilies are ON

Topic review
   

Expand view Topic review: Cuda aus dem Gedächtnis, wenn es viel verfügbar gibt

by Guest » 23 Feb 2025, 10:12

Ich habe Probleme mit der Verwendung von Pytorch und Cuda. Manchmal funktioniert es einwandfrei, manchmal sagt es mir RunTimeError: Cuda aus dem Speicher. Code>, der theoretisch über 5GIB verfügbar sein sollte.

Bei der Ausführung meines Programms werde ich jedoch mit der Nachricht begrüßt:

Code: Select all

RuntimeError: CUDA out of memory. Tried to allocate 578.00 MiB (GPU 0; 5.81 GiB total capacity; 670.69 MiB already allocated; 624.31 MiB free; 898.00 MiB reserved in total by PyTorch)

Es sieht so aus . Wie kann das sein? Angesichts dieser Zahlen sollte eine Menge GPU -Speicher hinterlassen werden.

Top