e.g. Laden von Bert < /p>
Code: Select all
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("bert-base-uncased")
< /code>
wird bis zur Ausführung < /p>
in CPU geladenmodel.to('cuda')
geladen. Ich möchte das Modell direkt in GPU laden, wenn Sie von _pretrainierten ausgeführt werden. Ist das möglich?