Code
Code: Select all
from transformers import pipeline, TFPreTrainedModel, AutoTokenizer
import os
dir = "./models/twitter-roberta-base-sentiment-latest/"
print(os.listdir(dir)) # confirm the folder contents
model = TFPreTrainedModel.from_pretrained(dir)
tokenizer = AutoTokenizer.from_pretrained(dir)
analyze = pipeline(task="sentiment-analyis", model=model, tokenizer=tokenizer)
print(analyze("this is good"))
print(analyze("this is bad"))
Code: Select all
2025-02-21 16:40:05.896448: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
2025-02-21 16:40:06.653841: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
WARNING:tensorflow:From C:\Users\xxxxx\.pyenv\pyenv-win\versions\3.12.8\Lib\site-packages\tf_keras\src\losses.py:2976: The name tf.losses.sparse_softmax_cross_entropy is deprecated. Please use tf.compat.v1.losses.sparse_softmax_cross_entropy instead.
['config.json', 'gitattributes', 'merges.txt', 'pytorch_model.bin', 'README.md', 'special_tokens_map.json', 'tf_model.h5', 'vocab.json']
Traceback (most recent call last):
File "C:\Users\xxxxx\OneDrive - DuPont\Python Projects\huggingface\sentiment.py", line 8, in
model = TFPreTrainedModel.from_pretrained(dir)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\xxxxx\.pyenv\pyenv-win\versions\3.12.8\Lib\site-packages\transformers\modeling_tf_utils.py", line 2726, in from_pretrained
config, model_kwargs = cls.config_class.from_pretrained(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
AttributeError: 'NoneType' object has no attribute 'from_pretrained'
Https://huggingface.co/docs/transformer ... n_classes/ Modell#transformators.tfPretrainedModel < /p>
vorabreaged_model_name_or_path (str, optional) - Kann entweder:
eine Zeichenfolge sein, die Modell -ID eines vorbereiteten Modells, das in einem Modelltrieb auf Huggingface.co gehostet wird. , ./my_model_directory/.
ein Pfad oder eine URL zu einer Pytorch State_Dict Save -Datei (z. B.,, ./pt_model/pytorch_model.bin). In diesem Fall sollte von_pt auf true eingestellt und ein Konfigurationsobjekt als Konfigurationsargument bereitgestellt werden. Dieser Ladepfad ist langsamer als das Konvertieren des Pytorch -Modells in einem TensorFlow -Modell mit den bereitgestellten Konvertierungsskripten und dem Laden des TensorFlow -Modells anschließend. ).