Ich experimentiere mit den OpenAI -Agenten SDK (Python) und rannte mit parallel_tool_calls . Ich sehe jedoch immer noch Multiple Toolaufrufe, die in der Antwort der Assistenten zurückgegeben wurden.
Ich experimentiere mit den [b] OpenAI -Agenten SDK (Python) [/b] und rannte mit parallel_tool_calls . Ich sehe jedoch immer noch [b] Multiple [/b] Toolaufrufe, die in der Antwort der Assistenten zurückgegeben wurden.[code]client = AsyncOpenAI( api_key=GEMINI_API_KEY, base_url=BASE_URL ) model = OpenAIChatCompletionsModel( openai_client=client, model="gemini-2.0-flash" # using openai sdk with gemini model ) < /code>
result = await Runner.run( starting_agent=agent, input="what's user uid and what's the weather in karachi?", # asking question to check if the model is calling both tools context=user_info, )
if __name__ == "__main__": asyncio.run(main()) < /code> Protokolle: < /p> ... LLM resp: { "content": null, "refusal": null, "role": "assistant", "annotations": null, "audio": null, "function_call": null, "tool_calls": [ # Model is asking to call both tools even when `parallel_tool_calls` is set to `False` { "id": "", "function": { "arguments": "{}", "name": "fetch_user_uid" }, "type": "function" }, { "id": "", "function": { "arguments": "{\"city\":\"karachi\"}", "name": "fetch_weather" }, "type": "function" } ] }
... [/code] Erwartete Ergebnisse: LLM -Aufrufe höchstens ein Tool -Anruf pro Runde.>
Ich habe eine Funktion f (df, x) wobei df ein großer Datenrahmen ist und X eine einfache Variable ist. Die Funktion f wird nur aus df gelesen und ändert sie nicht. Ist es möglich, den Speicher von df...
Ich versuche, eine Liste von Dateien aus einem FTP-Verzeichnis abzurufen, aber die Funktion ftp_nlist gibt wiederholt „false“ zurück. Ich habe dies auf 3 verschiedenen FTP-Servern mit dem gleichen...
Ich führe eine Gitea -Instanz auf meinem Raspberry Pi 5 mit ARM -Prozessor aus. Ich habe mich mit ähnlichen Fragen befasst, in denen es heißt, -Channel = 3 , verwenden Sie Zitate, um Pakete zu...