client = genai.Client()
start_time = time.time()
response = client.models.embed_content(
model="text-embedding-005",
contents=["text to be embedded", "idk how is this working", "hello i am you"],
config=EmbedContentConfig(
task_type="CLASSIFICATION",
output_dimensionality=768,
),
)
end_time = time.time()
print(f"Time taken: {end_time - start_time:.4f} seconds")
print(response.embeddings[1].values)
< /code>
# output
Time taken: 12.6191 seconds
...embedding vector
< /code>
Und hier ist die Token-Graf-API < /p>
client = genai.Client(http_options=HttpOptions(api_version="v1"))
prompt = "Why is the sky blue?"
strt_time = time.time()
response = client.models.generate_content(
model="gemini-2.0-flash", contents=prompt
)
end_time = time.time()
print(f"Time taken: {end_time - strt_time:.4f} seconds")
print(response.usage_metadata.prompt_token_count)
< /code>
# output
Time taken: 3.5657 seconds
6
< /code>
Aber wenn ich diese kombiniert habe, um einige Einbettung für diese Daten zu erhalten "http://www.saman-sna.cf"
"https://libreriabaruqeros45.libreria15.repl.co"
"https://www.endometriosis-uk.org"
"https://www.mca.org.mt"
"http://www.xgdsgj.com" # ...only 100 rows of this kinda strings for testing
< /code>
Verwenden Sie diesen Code auf Google Colab < /p>
import asyncio
from google import genai
from google.genai.types import EmbedContentConfig
from google.genai.types import HttpOptions
# Init client with HTTP options to get token usage
client = genai.Client(http_options=HttpOptions(api_version="v1"))
# Load the dataframe (modify this path or use your own df)
df_100_rows = pd.read_csv("data.csv").head(100) # only first 100 rows
urls = df_100_rows['url'].tolist()
# Constants
BATCH_SIZE = 250
MAX_TOKENS_PER_BATCH = 20000
# Helper: get token count for a single input
def get_token_count(text: str) -> int:
response = client.models.generate_content(
model="gemini-2.0-flash", contents=text
)
return response.usage_metadata.prompt_token_count
# Helper: yield batches with token safety
def get_safe_batches(urls):
batch = []
total_tokens = 0
for url in urls:
token_count = get_token_count(url)
if (len(batch) >= BATCH_SIZE) or (total_tokens + token_count > MAX_TOKENS_PER_BATCH):
yield batch
batch = []
total_tokens = 0
batch.append(url)
total_tokens += token_count
if batch:
yield batch
# Async embed one batch
async def embed_batch(batch):
return client.models.embed_content(
model="text-embedding-005",
contents=batch,
config=EmbedContentConfig(
task_type="CLASSIFICATION",
output_dimensionality=768,
),
).embeddings
# Main embedding loop
async def embed_all(urls):
all_embeddings = []
for i, batch in enumerate(get_safe_batches(urls), 1):
print(f"Embedding batch {i} with {len(batch)} URLs...")
embeddings = await embed_batch(batch)
all_embeddings.extend([e.values for e in embeddings])
return all_embeddings
embeddings = asyncio.run(embed_all(urls))
print(f"Total embedded: {len(embeddings)}")
Mehr als 15 Minuten übergeben und noch keine Ausgabe ... also habe ich es beendet, aber ich frage mich, wie die Scheitelpunkt KI von Google so ziemlich ihre Unternehmens -AI -Lösung ist, auch für nur 100 kleine Strings so langsam ... also bedeutet das, dass ich hier etwas falsch mache?
Ich habe beide die API, die ich mit kleinen Daten verwende, lokal getestet. Hier ist die Einbettungs-API-Verwendung und -ausgabe < /p> [code] client = genai.Client()
start_time = time.time()
response = client.models.embed_content( model="text-embedding-005", contents=["text to be embedded", "idk how is this working", "hello i am you"], config=EmbedContentConfig( task_type="CLASSIFICATION", output_dimensionality=768, ), )
end_time = time.time() print(f"Time taken: {end_time - start_time:.4f} seconds") print(response.embeddings[1].values) < /code> # output Time taken: 12.6191 seconds ...embedding vector < /code> Und hier ist die Token-Graf-API < /p> client = genai.Client(http_options=HttpOptions(api_version="v1"))
print(f"Time taken: {end_time - strt_time:.4f} seconds") print(response.usage_metadata.prompt_token_count) < /code> # output Time taken: 3.5657 seconds 6 < /code> Aber wenn ich diese kombiniert habe, um einige Einbettung für diese Daten zu erhalten "http://www.saman-sna.cf" "https://libreriabaruqeros45.libreria15.repl.co" "https://www.endometriosis-uk.org" "https://www.mca.org.mt" "http://www.xgdsgj.com" # ...only 100 rows of this kinda strings for testing
< /code> Verwenden Sie diesen Code auf Google Colab < /p> import asyncio from google import genai from google.genai.types import EmbedContentConfig from google.genai.types import HttpOptions
# Init client with HTTP options to get token usage client = genai.Client(http_options=HttpOptions(api_version="v1"))
# Load the dataframe (modify this path or use your own df) df_100_rows = pd.read_csv("data.csv").head(100) # only first 100 rows urls = df_100_rows['url'].tolist()
# Main embedding loop async def embed_all(urls): all_embeddings = [] for i, batch in enumerate(get_safe_batches(urls), 1): print(f"Embedding batch {i} with {len(batch)} URLs...") embeddings = await embed_batch(batch) all_embeddings.extend([e.values for e in embeddings]) return all_embeddings
embeddings = asyncio.run(embed_all(urls)) print(f"Total embedded: {len(embeddings)}") [/code] Mehr als 15 Minuten [url=viewtopic.php?t=23808]übergeben[/url] und noch keine Ausgabe ... also habe ich es beendet, aber ich frage mich, wie die Scheitelpunkt KI von Google so ziemlich ihre Unternehmens -AI -Lösung ist, auch für nur 100 kleine Strings so langsam ... also bedeutet das, dass ich hier etwas falsch mache?
Ich bin von Jboss EAP 7 nach Wildfly 26 migriert. 2023, der 3-4 Minuten dauerte. WARN (Controller -Start -Thread) WFLYCTL0456: Systemeigenschaft JBoss.as.Management.Blocking.TimeOut ist bereits im...
Ich habe ein MacBook Air M3, habe auch ein UTM VM mit macOS installiert und es 8 Kerne und 16 GB RAM gegeben.
Dann habe ich Android Studio installiert und die Benutzeroberfläche ist sehr Langsam,...
Ich habe eine Abfrage, die schlecht abschneidet, und ich bin mir nicht sicher, wo das Problem ist. Eine massiv reduzierte Version der Abfrage, die immer noch dasselbe Problem zeigt, lautet:
SELECT...