Ich habe mich kürzlich mit dem OLLAMA Python -Paket mit LLMs mit LLMs gebastelt. Mein neuestes Projekt ist ein KI -Assistent (wie originell, wie ich weiß) mit Tool Calling -Funktionen. Ich benutze das QWEN3: 4B -Modell, und obwohl es aufgrund seiner Größe nicht die größte bei Toolanrufen ist, erledigt es immer noch die Aufgabe. Eines der Tools, die ich integrieren wollte, war ein Tool "Datei Explorer". Ich machte mich daran, dass das Modell zuerst eine "open_file ()" -Funktion aufrief, in der alle Dateien aufgeführt waren, und danach generierte es einen weiteren Tool -Aufruf "open_document (Dateiname)", um eine dieser Dateien zu öffnen. Mit anderen Worten, das Modell trifft zwei Tool -Anrufe aus, die die Dateien auflisten, gefolgt von einem anderen, um eines zu öffnen. Eine Sache zu beachten ist, dass für den zweiten Tool -Aufruf die Funktion "Open_Document (Dateiname)" das einzige verfügbare Tool ist, aus dem das Modell auswählen kann. Wenn dies funktioniert, funktioniert es nun fehlerfrei, aber das anhaltende Problem, das ich bemerkt habe, ist, dass es oft keine Tool -Anrufe zum zweiten Mal generiert, d. H. Der Tool -Anruf, der erforderlich ist, um das Dokument nach Auflistung der Dateien tatsächlich zu öffnen. Gibt es eine Möglichkeit, das Modell aus einer Art Ausgangspunkt zu generieren? Oder mit anderen Worten, gibt es eine Möglichkeit, das Modell zu vervollständigen, was bereits da ist, anstatt die gesamte Antwort von Grund auf zu generieren? < /P>
Beispiel: < /h3>
Code: Select all
Input:
"""
User: Open the about file.
Assistant: *open_file()
Tool: Available files, pleases select one:
- file.txt
- example.txt
- about.txt
- random.txt
Assistant: *open_document("
"""
LLM Output:
"""
about.txt")
"""