Frage: Warum gibt es nach einigen Dezimalpunkten einen Unterschied in den Vorhersagen? Warum sind sie nicht genau ähnlich? Wenn Sie einen größeren Datensatz verwenden, um ein Modell zu trainieren, wie bei 1 Millon -Zeilen und 100 -Spalten -Spalten, nimmt diese Unterschiede in der Vorhersage zu. Das Beispiel, das ich oben gezeigt habe, wird auf dem titanischen Datensatz erstellt (was sehr klein ist). Wenn Sie es jedoch auf größerem Datensatz versuchen, ist der Unterschied massiv. /> [*] Versucht mit xgb.dmatrix, um das Modell vorherzusagen.
shap_values = explainer.shap_values(X_val) [/code] Ich habe festgestellt, dass, wenn ich Erklärungsmodel.Predict () und model.PREDICT () Beide Vorhersagen nicht übereinstimmen. [code]model.predict_proba(X_val)[:10] >> array([[0.90563095, 0.09436908], [0.675441 , 0.324559 ], [0.7728198 , 0.22718018], [0.00906086, 0.99093914], [0.5687084 , 0.4312916 ], [0.146478 , 0.853522 ], [0.21917653, 0.78082347], [0.871528 , 0.12847197], [0.34144473, 0.65855527], [0.25084436, 0.74915564]], dtype=float32)
explainer.model.predict(X_val)[:10] >>> array([0.09436912, 0.32455891, 0.22718007, 0.99093911, 0.43129163, 0.85352203, 0.7808235 , 0.12847196, 0.65855535, 0.74915555]) [/code] [b] Frage: [/b] Warum gibt es nach einigen Dezimalpunkten einen Unterschied in den Vorhersagen? Warum sind sie nicht genau ähnlich? Wenn Sie einen größeren Datensatz verwenden, um ein Modell zu trainieren, wie bei 1 Millon -Zeilen und 100 -Spalten -Spalten, nimmt diese Unterschiede in der Vorhersage zu. Das Beispiel, das ich oben gezeigt habe, wird auf dem titanischen Datensatz erstellt (was sehr klein ist). Wenn Sie es jedoch auf größerem Datensatz versuchen, ist der Unterschied massiv. /> [*] Versucht mit xgb.dmatrix, um das Modell vorherzusagen.[code]import pandas as pd import numpy as np from sklearn.model_selection import train_test_split import xgboost as xgb import shap
# Load Titanic dataset data = pd.read_csv('https://raw.githubusercontent.com/datasciencedojo/datasets/master/titanic.csv')
# Preprocessing data = data.drop(['Name', 'Ticket', 'Cabin'], axis=1) data = pd.get_dummies(data, columns=['Sex', 'Embarked'], drop_first=True) data = data.fillna(data.median())
X = data.drop('Survived', axis=1) y = data['Survived']
#---------- # If you want to use large data to see big difference #n_samples = 1000000 #n_features = 150 #X_large = pd.DataFrame(np.random.rand(n_samples, n_features), columns=[f'feature_{i}' for i in range(n_features)]) #y_large = pd.Series(np.random.randint(0, 2, size=n_samples), name='target') #X_dev_large, X_val_large, y_dev_large, y_val_large = train_test_split(X_large, y_large, test_size=0.2, random_state=42) #----------
Ich benutze Keras und Tensorflow, um eine einfache Multilayer-Perzeptron (MLP) für eine Regressionsaufgabe zu trainieren, bei der ich den Mittelwert-Quadrat-Fehler (MSE) als Verlustfunktion verwende....
Ich habe ein ResNet50 -Modell (640x640) aus dem Tensorflow -Models Zoo trainiert und es dann in Onnx -Format umgewandelt, und ich versuche es mit ml.net
Das Objekt, das von der Predictiongine...
Ist die Verwendung von @model IQueryable in einer Razor-Ansicht eine gute Idee? Gibt es ein geeignetes Szenario, in dem Sie @model IQueryable in der Razor-Ansicht verwenden würden?
Ich habe gerade...
Ich möchte Prozesse parallel ausführen und ihre Fortschritte zeigen. Ich habe diesen Code:
from math import factorial
from decimal import Decimal, getcontext
from concurrent.futures import...