Ich habe eine wirklich große CSVimport pandas
df = pandas.read_csv('large_txt_file.txt')
< /code>
Sobald ich dies mache, erhöht sich meine Speicherverwendung um 2 GB, was erwartet wird, da diese Datei Millionen von Zeilen enthält. Mein Problem kommt, wenn ich diesen Speicher veröffentlichen muss. Ich rannte .... < /p>
del df
< /code>
Ich fiel jedoch nicht zurück. Ist dies der falsche Ansatz zur Freigabe des von einem Pandas -Datenrahmen verwendeten Speicher? Wenn ja, was ist der richtige Weg?
Wie löste ich Speicher frei, das von einem Pandas -Datenframe verwendet wird? ⇐ Python
-
- Similar Topics
- Replies
- Views
- Last post