Cuda aus dem Gedächtnis, wenn es viel verfügbar gibtPython

Python-Programme
Guest
 Cuda aus dem Gedächtnis, wenn es viel verfügbar gibt

Post by Guest »

Ich habe Probleme mit der Verwendung von Pytorch und Cuda. Manchmal funktioniert es einwandfrei, manchmal sagt es mir RunTimeError: Cuda aus dem Speicher. Code>, der theoretisch über 5GIB verfügbar sein sollte.

Bei der Ausführung meines Programms werde ich jedoch mit der Nachricht begrüßt:

Code: Select all

RuntimeError: CUDA out of memory. Tried to allocate 578.00 MiB (GPU 0; 5.81 GiB total capacity; 670.69 MiB already allocated; 624.31 MiB free; 898.00 MiB reserved in total by PyTorch)

Es sieht so aus . Wie kann das sein? Angesichts dieser Zahlen sollte eine Menge GPU -Speicher hinterlassen werden.

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post