Ich benutze die Abschlüsse in der OpenAI -Bibliothek für Python. So etwas: < /p>
Code: Select all
self.__response = self.client.chat.completions.create(
model='gpt-4',
messages=messages,
stream=True
)
< /code>
Danach schaue ich einfach durch Stücke: < /p>
for chunk in self.__response:
text = chunk.choices[0].delta.content
# Processing text here
reicht es aus, nur Break innerhalb der Schleife zu verhindern, um die Reaktion des Servers und die Verschwendung von Token zu verhindern, wenn ich sehe, dass die Antwort meine Erwartungen nicht erfüllt? Oder wahrscheinlich gibt es eine korrekte Möglichkeit, dies zu erreichen?