Ich verwende eine Anwendung mit Pyspark-Backend und Streamlit-Frontend, die Abfragen empfangen und Ausgaben bereitstellen kann. Insbesondere habe ich einen Datensatz mit 12 GB Speicher im Parquet-Format, aber wenn ich versuche, eine Spark-Sitzung auszuführen, erhalte ich beispielsweise bei getDateOf immer die folgende Fehlermeldung: JAVA HEAP SPACE. Wie behebe ich diesen Fehler? Vielen Dank im Voraus.
Ich habe erwartet, dass die Anwendung funktioniert, aber stattdessen erhalte ich eine Fehlermeldung
Pyspark und big data ⇐ Java
-
- Similar Topics
- Replies
- Views
- Last post