Kettung mehrerer GPT-4-Turbo-API-Aufrufe mit Funktionsaufruf und dynamischer Speicher-/KontextinjektionPython

Python-Programme
Anonymous
 Kettung mehrerer GPT-4-Turbo-API-Aufrufe mit Funktionsaufruf und dynamischer Speicher-/Kontextinjektion

Post by Anonymous »

Ich arbeite an einer modularen Pipeline mit dem GPT-4-Turbo von OpenAI (über/v1/chat/coment ), an dem mehrstufige Eingabeaufschaltungsketten beteiligt sind. Jeder Schritt hat eine spezifische Rolle (z. B. Absichtserkennung → Funktionsausführung → Zusammenfassung → Reaktion der natürlichen Sprache). Ich stoße auf architektonische Fragen: < /p>
Jeder Schritt hängt von der Ausgabe der vorherigen ab, und einige Schritte beinhalten Funktionen auf dem Aufruf (Funktion_call: "auto"), während andere einen vorherigen Kontext dynamisch injizieren müssen. Eingabeaufforderung? /> Ist es sicher, erzeugte Ausgaben über Systemaufforderungen wieder in GPT zu übergeben, oder verschmutzt den Kontext auf subtile Weise? < /p>
Speichereffizienz? Anfragen? < /p>
response_1 = openai.ChatCompletion.create(
model="gpt-4-turbo",
messages=[{ "role": "system", "content": "You are an intent classifier..." },
{ "role": "user", "content": user_input }]
)

response_2 = openai.ChatCompletion.create(
model="gpt-4-turbo",
messages=[
{ "role": "system", "content": f"Intent: {intent}" },
{ "role": "user", "content": "Proceed to handle the request using tool if needed." }
],
tools=[...],
tool_choice="auto"
)
< /code>
Würde Erkenntnisse schätzen, insbesondere von Personen, die modulare AI -Workflows mit OpenAIs API bauen.>

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post