Ich benutze Sklearn, um einen zufälligen Wald zu betreiben. Ich setze den Saatgut für den zufälligen Wald sowie die Daten zur Kreuzvalidierung auf. Wenn ich die Code aufeinanderfolgende Zeiten erneut ausführe, gibt es mir das gleiche Ergebnis. Nach einem Monat habe ich jedoch den gleichen Code wieder auftreten und habe etwas andere Funktionen für Features. In einigen anderen ähnlichen Analysen sind auch die Genauigkeitsmetriken unterschiedlich. Die Daten wurden nicht geändert. Ich laufe auf Google Colab. < /P>
Hier ist mein Code: < /p>
Ich benutze Sklearn, um einen zufälligen Wald zu betreiben. Ich setze den Saatgut für den zufälligen Wald sowie die Daten zur Kreuzvalidierung auf. Wenn ich die Code aufeinanderfolgende Zeiten erneut ausführe, gibt es mir das gleiche Ergebnis. Nach einem Monat habe ich jedoch den gleichen Code wieder auftreten und habe etwas andere Funktionen für Features. In einigen anderen ähnlichen Analysen sind auch die Genauigkeitsmetriken unterschiedlich. Die Daten wurden nicht geändert. Ich laufe auf Google Colab. < /P> Hier ist mein Code: < /p> [code]# Configuration file_path = '/content/drive/My Drive/dataset.csv' columns_to_keep = [ 'target_column', 'feature_a', 'feature_b', 'feature_c', 'feature_d', 'feature_e', 'feature_f', 'feature_g', 'feature_h', 'feature_i', 'feature_j', 'feature_k', 'feature_l', 'feature_m', 'feature_n', 'feature_o', 'feature_p', 'feature_q', 'feature_r', 'feature_s', 'feature_t', 'feature_u', 'feature_v', 'feature_w', 'feature_x', 'feature_y', 'feature_z', 'feature_aa', 'feature_ab', 'feature_ac', 'feature_ad', 'feature_ae', 'feature_af', 'feature_ag', 'feature_ah', 'feature_ai', 'feature_aj', 'feature_ak', 'feature_al', 'feature_am', 'feature_an' ]
# Perform k-fold cross-validation for fold_num, (train_index, test_index) in enumerate(kf.split(X), start=1): # Split the data X_train, X_test = X.iloc[train_index], X.iloc[test_index] y_train, y_test = y.iloc[train_index], y.iloc[test_index]
# Train the Random Forest model rf_model.fit(X_train, y_train)
# Predict on the test set y_pred = rf_model.predict(X_test)
# Collect all true and predicted labels all_y_true.extend(y_test) all_y_pred.extend(y_pred)
# Get feature importances for this fold feature_importances_list.append(rf_model.feature_importances_)
# Calculate and print the accuracy for this fold accuracy_fold = accuracy_score(y_test, y_pred) print(f"Fold {fold_num} Accuracy: {accuracy_fold:.4f}")
# Calculate accuracy across all predictions accuracy_cv = accuracy_score(all_y_true, all_y_pred)
# Generate a classification report final_report = classification_report(all_y_true, all_y_pred, digits=3)
# Average feature importances across folds average_importance = sum(feature_importances_list) / len(feature_importances_list)
# Create a DataFrame with feature names and their corresponding average importance feature_names = X.columns importance_df = pd.DataFrame({ 'Feature': feature_names, 'Importance': average_importance }).sort_values(by='Importance', ascending=False)
# Print Results print(f"Overall Accuracy of Random Forest model with k-fold CV: {accuracy_cv:.4f}")
Ich versuche meine Hand bei Perlin -Rauschen, damit ich DND -Karten erstellen kann, aber mein Python -Projekt scheint immer entweder perfekt vertikale Linien oder Rauschen zu erstellen, die extrem...
Ich habe eine Website, auf der ein Benutzer mit einigen Eingabefeldern etwas erstellen kann. Wie sollte ich seine Daten in der DB speichern? Wenn es sich also um ein guter Ansatz handelt, kann ich...
hier ein Noob hier. (Bild1) und Ten sind (Bild2).
Ich kann nur den zweiten Satz von Bildern anzeigen, wenn ich das Bild ändere. Wie mache ich es so, wenn ich auf die Originalbild -ID klicke, um ein...