Snowpark -Fehler, es sei denn, cache_result () wird verwendet

Post a reply

Smilies
:) :( :oops: :chelo: :roll: :wink: :muza: :sorry: :angel: :read: *x) :clever:
View more smilies

BBCode is ON
[img] is ON
[flash] is OFF
[url] is ON
Smilies are ON

Topic review
   

Expand view Topic review: Snowpark -Fehler, es sei denn, cache_result () wird verwendet

by Anonymous » 25 Aug 2025, 05:00

Ich habe eine relativ lange Pipeline in Snowpark und jetzt habe ich angefangen, diesen Fehler zu erhalten: < /p>

Code: Select all

SnowparkSQLException: (1304): 01be98bf-0002-488e-0000-32893416fcfe: 000603 (XX000): SQL execution internal error: Processing aborted due to error 300010:391167117; incident 5224277.

Ich habe versucht, Schritte zu entfernen, die ich seit dem letzten erfolgreichen Test hinzugefügt habe, konnte aber den Täter nicht identifizieren. Ich habe jedoch aufgefallen, ob ich vor den von den Fehler ausgestrahlten Schritten df = df.cache_result () hinzufüge - der Code funktioniert wie erwartet. Das Hinzufügen einiger Caching -Schritte hilft also, aber ich möchte die Grundursache verstehen. Das größte ist weniger als 2 m Zeilen. Z.B. contract_df = contract_df.join (customer_df ..) . Der Name des Kerndatenrahmens wird also mehr als 20 Mal wiederverwendet.
Lagergröße: xs.>

Top