...
def __init__(self):
self.insanely_fast_whisper_model = PreTrainedModel(
config=PretrainedConfig(name_or_path=WHISPER_MODEL_PATH),
)
...
async def _transcribe_insanely_fast_whisper(self, file_content: bytes = None) -> str:
pipe = pipeline(
"automatic-speech-recognition",
model=self.insanely_fast_whisper_model, # "openai/whisper-large-v3",
device="cpu", # "cuda:0", # or mps for Mac devices
model_kwargs={"attn_implementation": "flash_attention_2"}
if is_flash_attn_2_available()
else {"attn_implementation": "sdpa"},
)
outputs = pipe(
file_content,
chunk_length_s=30,
batch_size=24,
return_timestamps=True,
)
return outputs
< /code>
Ich habe viele Dinge ausprobiert, aber wenn ich den Code ausführe, bekomme ich: < /p>
File "/usr/local/lib/python3.12/site-packages/transformers/pipelines/__init__.py", line 1097, in pipeline
return pipeline_class(model=model, framework=framework, task=task, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/transformers/pipelines/automatic_speech_recognition.py", line 210, in __init__
feature_extractor._processor_class
AttributeError: 'NoneType' object has no attribute '_processor_class'
< /code>
Ich weiß nicht viel über Modelle und Transformatoren und wie man sie verwendet. Ich habe versucht, die Dokumentation zu lesen, aber keine Antwort gefunden..
├── dataset
│ └── whisper-large-v3-ro-ct2
│ ├── config.json
│ ├── preprocessor_config.json
│ ├── tokenizer.json
│ └── vocabulary.json
├── Dockerfile
├── readme.md
└── setup_python.sh
Bitte lassen Sie mich wissen, ob Sie zusätzliche Informationen benötigen.
Ich versuche, ein benutzerdefiniertes Modell mit wahnsinnig schnellem Flüstern zu verwenden. < /p> Dies ist der Code, den ich bisher habe:[code]... def __init__(self): self.insanely_fast_whisper_model = PreTrainedModel( config=PretrainedConfig(name_or_path=WHISPER_MODEL_PATH), ) ... async def _transcribe_insanely_fast_whisper(self, file_content: bytes = None) -> str: pipe = pipeline( "automatic-speech-recognition", model=self.insanely_fast_whisper_model, # "openai/whisper-large-v3", device="cpu", # "cuda:0", # or mps for Mac devices model_kwargs={"attn_implementation": "flash_attention_2"} if is_flash_attn_2_available() else {"attn_implementation": "sdpa"}, )
outputs = pipe( file_content, chunk_length_s=30, batch_size=24, return_timestamps=True, ) return outputs < /code> Ich habe viele Dinge ausprobiert, aber wenn ich den Code ausführe, bekomme ich: < /p> File "/usr/local/lib/python3.12/site-packages/transformers/pipelines/__init__.py", line 1097, in pipeline return pipeline_class(model=model, framework=framework, task=task, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/usr/local/lib/python3.12/site-packages/transformers/pipelines/automatic_speech_recognition.py", line 210, in __init__ feature_extractor._processor_class AttributeError: 'NoneType' object has no attribute '_processor_class' < /code> Ich weiß nicht viel über Modelle und Transformatoren und wie man sie verwendet. Ich habe versucht, die Dokumentation zu lesen, aber keine Antwort gefunden.. ├── dataset │ └── whisper-large-v3-ro-ct2 │ ├── config.json │ ├── preprocessor_config.json │ ├── tokenizer.json │ └── vocabulary.json ├── Dockerfile ├── readme.md └── setup_python.sh [/code] Bitte lassen Sie mich wissen, ob Sie zusätzliche Informationen benötigen.
Um eine Audiodatei mit Whisper zu transkribieren. Ich lade die Datei in mein Google -Laufwerk hoch. Führen Sie den Befehl aus:
!pip install git+
!sudo apt update && sudo apt install ffmpeg
Ich übertrage ein Repository an die Ansicht als mein Modell und in der Ansicht, mit dem Repository, kann ich einen Eintrag in die DB einfügen. Ich kann den Eintrag in der DB sehen, aber wenn ich...
Ich möchte ein Modell konvertieren. Die Dokumentation von SafeTensors Paket ist nicht genug und ist nicht klar, wie man das Originalmodell (Pytorch) bekommt, da ich etwas wie
versuche with...