by Anonymous » 11 Jul 2025, 14:35
Ich versuche, eine Lora in Comfyui mit der modifizierten Version des Beispiel-Workflows für comfyui-fluxtrainer (
https://github.com/kijai/comfyui-fluxtrainer/issues) zu trainieren. Ich habe hier auf Reddit gefunden (
https://www.reddit.com/r/stablediffusio ... ras_using/). Dies ist die erste Version, in der CUDA nicht aus dem Speicher ausgeht (VRAM 8GB), aber ich erhalte diesen Fehler: < /p>
Expected all tensors to be on the same device, but found at least two
devices, cpu and cuda:0!
< /code>
Es gibt viele Beiträge im Internet mit diesem Fehler, aber keine, die anscheinend wieder ein LORA -Training zurückführen, und alle scheinen eine andere Lösung zu haben. Weiß jemand, was das
Problem in dieser Instanz sein könnte? Wenn dies auf 0 gesetzt ist, stoppt das Problem, aber ich bin dann zurück zu einem "fackel.outofMemoryError: Allocation on Device" -Fehler - also nicht wirklich eine Lösung.
Ich versuche, eine Lora in Comfyui mit der modifizierten Version des Beispiel-Workflows für comfyui-fluxtrainer (https://github.com/kijai/comfyui-fluxtrainer/issues) zu trainieren. Ich habe hier auf Reddit gefunden (https://www.reddit.com/r/stablediffusion/comments/1f5onyx/tutorial_setup_train_flux1_dev_loras_using/). Dies ist die erste Version, in der CUDA nicht aus dem Speicher ausgeht (VRAM 8GB), aber ich erhalte diesen Fehler: < /p>
Expected all tensors to be on the same device, but found at least two
devices, cpu and cuda:0!
< /code>
Es gibt viele Beiträge im Internet mit diesem Fehler, aber keine, die anscheinend wieder ein LORA -Training zurückführen, und alle scheinen eine andere Lösung zu haben. Weiß jemand, was das [url=viewtopic.php?t=26065]Problem[/url] in dieser Instanz sein könnte? Wenn dies auf 0 gesetzt ist, stoppt das Problem, aber ich bin dann zurück zu einem "fackel.outofMemoryError: Allocation on Device" -Fehler - also nicht wirklich eine Lösung.