Ich habe eine relativ einfache Fastapi -App, die eine Abfrage akzeptiert und die Antwort von Chatgpts API zurückstream. Chatgpt streamiert das Ergebnis zurück und ich kann sehen, dass dies in der Konsole gedruckt wird. Die Antwort wird stattdessen alle zusammen gesendet. Ich bin wirklich ratlos, warum dies nicht funktioniert.
Ich habe eine relativ einfache Fastapi -App, die eine Abfrage akzeptiert und die Antwort von Chatgpts API zurückstream. Chatgpt streamiert das Ergebnis zurück und ich kann sehen, dass dies in der Konsole gedruckt wird. Die Antwort wird stattdessen alle zusammen gesendet. Ich bin wirklich ratlos, warum dies nicht funktioniert.[code]import os import time
import openai
import fastapi from fastapi import Depends, HTTPException, status, Request from fastapi.security import HTTPBearer, HTTPAuthorizationCredentials from fastapi.responses import StreamingResponse
if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000, debug=True, log_level="debug") [/code] Und hier ist der sehr einfache Test.[code]import requests
query = "How tall is the Eiffel tower?" url = "http://localhost:8000" params = {"auth_key": "123", "query": query}
Ich versuche tatsächlich, eine Web-App zu erstellen, die einer Person einige Informationen fragt, dann \*. docx mit Jinja bearbeiten und diese \*. docx an die Person als a zurückgeben Download. />...
Ich habe einen Endpunkt, der Fastapi StreamingResponse zurückgibt:
async def stream_results():
...
async for _output in result_generator:
...
yield (json.dumps({'Field': value}, ensure_ascii=False))...
Ich habe eine große Fastapi -Anwendung. Es gibt viele verschiedene Endpunkte, darunter eine, die zum Proxy -Video -Streams verwendet wird. Die Verwendung ist so etwas wie folgt: Der Endpunkt empfängt...
Ich habe eine FastAPI-Anwendung, die im Allgemeinen gut funktioniert. Mein Setup ist Apache als Proxy und ein FastAPI-Server dahinter. Dies ist die Apache-Konfiguration:
ProxyPass /fs retry=1...