Code: Select all
ValueError: `.to` is not supported for `4-bit` or `8-bit` bitsandbytes models. Please use the model as it is...< /code> < /p>
Was ich bisher getan habe:
-Ich rufe nicht an (...) überall-explizit alle solchen Zeilen entfernt. Device_map = "auto" gemäß den Transformatoren github problem✅ < /p>
< /li>
[*] Ich nenne .cuda () Nur einmal auf dem Modell nach .from_pretrained (...), wie vorgeschlagen, dass ✅ < /p> < /> < /> < /la>
model und token -model und token mit harming mithb />
-Schuls und ToKenizer mit HUGGUGGE -SETH -SAKGUS MIT HUB -SETH MOBLE MIT HUB -SETH MIT HUBE MOBLE MOBLE MOBEL MIT HUBE -MODEL. ✅
[*] Das System erkennt Cuda richtig: Torch.cuda.is_available () ist wahr ✅
und letztes löste ich das umarme Gesichtsgesichts-Cache (~/.Cache/. /> Hier ist der relevante Teil des Codes, der den Fehler auslöst: < /p>
"mistralai/Mistral-7B-Instruct-v0.1",
quantization_config=quant_config,
device_map=None, # I explicitly removed this
token=hf_token
).cuda() # This is the only use of `.cuda()`
tokenizer = AutoTokenizer.from_pretrained(model_name, token=hf_token)```
Yet I still get the same ValueError. Thank you in advance.