Wie kann ich ein vorgepresstes Transformatorenmodell laden, das manuell heruntergeladen wurde?Python

Python-Programme
Anonymous
 Wie kann ich ein vorgepresstes Transformatorenmodell laden, das manuell heruntergeladen wurde?

Post by Anonymous »

Ich kann die Modelle von Huggingface -Modellen aufgrund von SSL -Zertifikatfehlern nicht herunterladen. Vielleicht liegt es an meiner Firma Firewall. Ich versuche, dieses Modell von der Festplatte mit TfPretrainedModel.from_Pretrained () und autotokenizer.from_pretraier () zu laden. Aus den Dokumenten scheint dies eine gültige Option zu sein. >. Schätzen Sie jede Hilfe! /main
Code

Code: Select all

from transformers import pipeline, TFPreTrainedModel, AutoTokenizer
import os

dir = "./models/twitter-roberta-base-sentiment-latest/"
print(os.listdir(dir)) # confirm the folder contents

model = TFPreTrainedModel.from_pretrained(dir)
tokenizer = AutoTokenizer.from_pretrained(dir)

analyze = pipeline(task="sentiment-analyis", model=model, tokenizer=tokenizer)
print(analyze("this is good"))
print(analyze("this is bad"))
Ausgabe

Code: Select all

2025-02-21 16:40:05.896448: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
2025-02-21 16:40:06.653841: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
WARNING:tensorflow:From C:\Users\xxxxx\.pyenv\pyenv-win\versions\3.12.8\Lib\site-packages\tf_keras\src\losses.py:2976: The name tf.losses.sparse_softmax_cross_entropy is deprecated. Please use tf.compat.v1.losses.sparse_softmax_cross_entropy instead.

['config.json', 'gitattributes', 'merges.txt', 'pytorch_model.bin', 'README.md', 'special_tokens_map.json', 'tf_model.h5', 'vocab.json']
Traceback (most recent call last):
File "C:\Users\xxxxx\OneDrive - DuPont\Python Projects\huggingface\sentiment.py", line 8, in 
model = TFPreTrainedModel.from_pretrained(dir)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\xxxxx\.pyenv\pyenv-win\versions\3.12.8\Lib\site-packages\transformers\modeling_tf_utils.py", line 2726, in from_pretrained
config, model_kwargs = cls.config_class.from_pretrained(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
AttributeError: 'NoneType' object has no attribute 'from_pretrained'
docs
Https://huggingface.co/docs/transformer ... n_classes/ Modell#transformators.tfPretrainedModel < /p>
vorabreaged_model_name_or_path (str, optional) - Kann entweder:
eine Zeichenfolge sein, die Modell -ID eines vorbereiteten Modells, das in einem Modelltrieb auf Huggingface.co gehostet wird. , ./my_model_directory/.
ein Pfad oder eine URL zu einer Pytorch State_Dict Save -Datei (z. B.,, ./pt_model/pytorch_model.bin). In diesem Fall sollte von_pt auf true eingestellt und ein Konfigurationsobjekt als Konfigurationsargument bereitgestellt werden. Dieser Ladepfad ist langsamer als das Konvertieren des Pytorch -Modells in einem TensorFlow -Modell mit den bereitgestellten Konvertierungsskripten und dem Laden des TensorFlow -Modells anschließend. ).

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post