Ich habe das Modell OpenChat (ein Mistral 7B -Finetuning) für meine eigenen Daten finationstuniert (oder weiter vorbereitet). Dies hat gut funktioniert und die Inferenz führt zu schönen Ergebnissen. Jetzt möchte ich die Adaptergewichte mit dem Originalmodell zusammenführen, um das Modell in einem weiteren Schritt zu quantisieren. Das Problem ist, dass das Aufruf von Modell.Merge_and_unload () den Fehler erzeugt: < /p>
"AttributeError: 'MistralForCausalLM' object has no attribute 'merge_and_unload".
Gibt es eine Möglichkeit, diese oder eine andere Methode zu beheben, um meine Gewichtsadapter mit dem Originalmodell zusammenzuführen? > Training < /strong> < /p>
Ich habe das Modell OpenChat (ein Mistral 7B -Finetuning) für meine eigenen Daten finationstuniert (oder weiter vorbereitet). Dies hat gut funktioniert und die Inferenz führt zu schönen Ergebnissen. Jetzt möchte ich die Adaptergewichte mit dem Originalmodell zusammenführen, um das Modell in einem weiteren Schritt zu quantisieren. Das Problem ist, dass das Aufruf von Modell.Merge_and_unload () den Fehler erzeugt: < /p> [code] "AttributeError: 'MistralForCausalLM' object has no attribute 'merge_and_unload". [/code] Gibt es eine Möglichkeit, diese oder eine andere Methode zu beheben, um meine Gewichtsadapter mit dem Originalmodell zusammenzuführen? > [b] Training < /strong> < /p> [code]import torch from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
Ich habe die folgende case-Anweisung in meinem Code:
status = case(
(
orders.c.item_delivered.is_(True),
OrderStatus.DELIVERED.value,
),
(
orders.c.order_processing_status ==...
Ich habe die folgende case-Anweisung in meinem Code:
status = case(
(
orders.c.item_delivered.is_(True),
OrderStatus.DELIVERED.value,
),
(
orders.c.order_processing_status ==...
Ich stoße auf einen AttributeError, während ich einen XGBRegressor mithilfe von RandomizedSearchCV von Scikit-learn anpasse. Die Fehlermeldung lautet:
'super' object has no attribute...