Wenn jemand Vorschläge hat, damit ich es richtig lesen kann. Mein Hauptziel besteht darin, dass das Modell die JSON-formatierten Daten lesen und eine Zusammenfassung der Abfrageergebnisse bereitstellen kann. Die Ergebnisse der SQL beinhalten bestimmte Parameter, die für die Big Query verwendet werden, beispielsweise ist eine Goldstein-Skala Bestandteil der Abfrage. Mein Hauptziel besteht darin, dass das Modell zusammenfasst, was jede Abfragekomponente beinhaltet, und eine Momentaufnahme der gesamten Abfrageantwort liefert. Beispielsweise sollten die folgenden SQL-Parameter nach der Abfrageantwort vom Modell zusammengefasst, dann analysiert und zur Vorhersage der aktuellen Situation der Eingabe verwendet werden.
Code: Select all
SQLDATE,
Actor1Name,
Actor2Name,
EventCode,
EventRootCode,
AvgTone,
GoldsteinScale,
SOURCEURL
Code: Select all
def askollamaHandler(param2,param2,param3, model="llama3.1:latest"):
prompt = {
f"Context: ------"
f"Tasl: --------"
f"Metrics: ----------."
f"Analyze: ------" }
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": model,
"prompt": prompt,
"stream": False
}
)
return response.json()["response"]
def askollamaQuery(param1, param2, model="llama3.1:latest"):
prompt = {
f"Task: ------"
f"Context: ----"
f"Metrics: ----"
f"Analyze: ---- "
f"Data:---"
}
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": model,
"prompt": prompt,
"stream": False
}
)
return response.json()["response"]
Code: Select all
QUERY_RESULT_DATA = client.query(query)
DATA_DICT = [dict(row) for row in QUERY_RESULT_DATA] # 1 query to dict
df = pd.DataFrame(DATA_DICT) #for XLSX save
json_data = json.dump(DATA_DICT) #for LLM read
llama_handler_summary = askollamaHandler(country_code_filter,keyword_filter,event_filter)
llama_query_summary = askollamaQuery(DATA_DICT,llama_handler_summary)
Mobile version