by Anonymous » 21 Aug 2025, 09:07
Beim Versuch, ein VLM -Modellartefakt auf einen Remote -Tracking -URI hochzuladen, hängt der MLFlow -Lauf nach einigen Stunden. Ich verwende Mlflow 3.1.1. Ich kann mit der .PTH -Datei mit Taschenlampe inferenziert und durchführen. Es scheint so einfach, aber ich kann es nicht zum Laufen bringen.
Code: Select all
torch.save(module_model.model, "/workspace/saved_models/vlm_model.pth")
< /code>
und bin versuchen, eine Ausführung zu starten und die Modelldatei auf den Remote -Server hochzuladen mit: < /p>
model = torch.load("/workspace/saved_models/vlm_model.pth", weights_only=False).to('cuda')
mlflow.pytorch.log_model(
pytorch_model=model,
name="model",
)
Beim Versuch, ein VLM -Modellartefakt auf einen Remote -Tracking -URI hochzuladen, hängt der MLFlow -Lauf nach einigen Stunden. Ich verwende Mlflow 3.1.1. Ich kann mit der .PTH -Datei mit Taschenlampe inferenziert und durchführen. Es scheint so einfach, aber ich kann es nicht zum Laufen bringen.[code]torch.save(module_model.model, "/workspace/saved_models/vlm_model.pth")
< /code>
und bin versuchen, eine Ausführung zu starten und die Modelldatei auf den Remote -Server hochzuladen mit: < /p>
model = torch.load("/workspace/saved_models/vlm_model.pth", weights_only=False).to('cuda')
mlflow.pytorch.log_model(
pytorch_model=model,
name="model",
)
[/code]