Vereinfachter Code:
Code: Select all
import random
import torch
random.seed(42)
torch.manual_seed(42)
response = llm.generate(
prompt="Generate a concise Salesforce Apex trigger example",
temperature=0,
top_p=1.0
)
Wiederholte Inferenzaufrufe mit derselben Eingabeaufforderung führen zu leicht unterschiedlichen Ausgaben (Wortlaut und Satzstruktur), obwohl die Parameter für den Zufallsstartwert und die Generierung festgelegt sind.
Was ich versucht habe
- Zufallsstartwerte auf Framework-Ebene korrigiert
- Temperatur = 0 einstellen und top_p = 1,0
- Überprüft, dass die gleiche Modellversion verwendet wird
- Streaming-Antworten deaktiviert
Frage
Welche Teile der LLM-Inferenz führen in diesem Setup zu Nichtdeterminismus und welche Änderungen sind erforderlich, um eine deterministische Ausgabe während der Produktionsinferenz zu gewährleisten?
Mobile version