RAM -Absturz Bei Verwendung von Train_test_split auf dem großen Datensatz in Colab [geschlossen] ⇐ Python
RAM -Absturz Bei Verwendung von Train_test_split auf dem großen Datensatz in Colab [geschlossen]
Ich arbeite an einem Sentiment -Analyse -Projekt mit einem großen Datensatz mit 160.000 Zeilen eingebetteter Kommentare. Code>, der RAM in Google Colab wird vollständig besetzt und die Sitzung stürzt ab. Aufteilung eines so großen Datensatzes?
-
- Similar Topics
- Replies
- Views
- Last post
-
-
Colab Ram ist nach dem Training fast voll, obwohl ich die Variablen lösche
by Anonymous » » in Python - 0 Replies
- 0 Views
-
Last post by Anonymous
-