Warum dieses recht einfache Beispiel von Xgboost ML auch bei Eingaben alles nimmt, was den Trainingsdaten entspricht? Dies sieht aus wie ein trivialer Eingangsfall, der keine Feinabstimmung von ML erfordern sollte, aber selbst wenn ich Hyperparams für ML (max_depth, ETA usw.) optimiert habe, ändert sich nichts. < /P>
Warum dieses recht einfache Beispiel von Xgboost ML auch bei Eingaben alles nimmt, was den Trainingsdaten entspricht? Dies sieht aus wie ein trivialer Eingangsfall, der keine Feinabstimmung von ML erfordern sollte, aber selbst wenn ich Hyperparams für ML (max_depth, ETA usw.) optimiert habe, ändert sich nichts. < /P> [code]import pandas as pd import xgboost as xgb
X = pd.DataFrame(([[0], [1], [2], [3], [4], [5]]), columns=['x']) y = pd.DataFrame([0, 1, 0, 1, 0, 1], columns=['y'])
Warum dieses recht einfache Beispiel von Xgboost ML auch bei Eingaben alles nimmt, was den Trainingsdaten entspricht? Dies sieht aus wie ein trivialer Eingangsfall, der keine Feinabstimmung von ML...
Warum dieses recht einfache Beispiel von Xgboost ML auch bei Eingaben alles nimmt, was den Trainingsdaten entspricht? Dies sieht aus wie ein trivialer Eingangsfall, der keine Feinabstimmung von ML...
Ich fange gerade erst mit ML an, also würde ich mich über einen Rat freuen. Die Daten sind stark unausgewogen (~ 96% Normal gegenüber ~ 4% betrügerisch). Speicherzuweisungsfehler:...
Ich habe ein Bildklassifizierungsmodell mit 46-Klasse unter Verwendung von Mobilenetv3-Large mit TensorFlow/Keras trainiert und es als ein .keras Modell gespeichert. Ich habe es in TFLite verwendete...