Die Leistung des fein abgestimmten Apple Foundation-Modells (.fMadapter) sinkt erheblich nach dem Einsatz in iOS/Swift APython

Python-Programme
Anonymous
 Die Leistung des fein abgestimmten Apple Foundation-Modells (.fMadapter) sinkt erheblich nach dem Einsatz in iOS/Swift A

Post by Anonymous »

Ich habe ein herausforderndes Problem mit einem fein abgestimmten Apple Foundation-Modell und würde uns über Einblicke freuen. Das Ziel ist es, dieses Modell in eine iOS-Anwendung für die Inferenz für On-Device zu integrieren. Format < /p>
Umgebung: Python mit Pytorch (Kaggle: Linux TPU -Maschine) < /p>
Leistung: Während des Trainings und Tests in meiner Python -Umgebung war die Leistung des Modells hervorragend. Es gab genaue und relevante Antworten zu meinem Validierungssatz. Ich habe dieses Modell mit Swift in mein iOS -Projekt geladen. Es gibt unsinnige, irrelevante oder völlig falsche Antworten, selbst auf dieselben Eingabeaufforderungen, die während des Tests perfekt funktionierten. Folgendes habe ich bisher untersucht: < /p>
Eingabeaufforderung Formatierung: Ich habe versucht, das während des Trainings verwendete Eingabeaufforderungformat in meinem Swift -Code zu gewährleisten. Die Konvertierung beinhaltet die Quantisierung, die die Leistung beeinflussen könnte, aber der Tropfen scheint zu schwerwiegend, um dies allein zu verursachen. Gibt es häufige Fehler im Zusammenhang mit der schnellen Formatierung, der Charaktercodierung oder der .fmadapter -Umwandlung, die ich möglicherweise fehlt?

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post