Ich arbeite mit einem Datensatz, in dem ich die Parameter einer lognormalen Verteilung unter Verwendung der maximalen Wahrscheinlichkeitsschätzung (MLE) schätzen möchte. Die Daten stellen die beobachteten Wahrscheinlichkeiten von Ereignissen dar (wie gering, stark und kollabierten Schäden), die auf verschiedenen Ebenen einer Prädiktorvariablen auftreten, z. Peak Ground Acceleration (PGA). Insbesondere: < /p>
Bei einem Schadensniveau endet die Optimierung mit unrealistischen Parameterschätzungen und konvergiert nicht ordnungsgemäß. Die Parameterschätzungen sind extrem hoch oder unrealistisch. Probleme? Gibt es in Python Standardmethoden oder integrierte Funktionen, die dazu beitragen können, diesen Prozess zu rationalisieren? /> < /p>
Das Problem aus meinem Skript trat beim Ausführen auf. Ich habe versucht, drei Fragilitätskurven (leicht, stark und zusammengebrochen) zu tun. Die Mittelwert- und Standardabweichungswerte für geringfügige und kollabierte sind unlogisch.
Ich arbeite mit einem Datensatz, in dem ich die Parameter einer lognormalen Verteilung unter Verwendung der maximalen Wahrscheinlichkeitsschätzung (MLE) schätzen möchte. Die Daten stellen die beobachteten Wahrscheinlichkeiten von Ereignissen dar (wie gering, stark und kollabierten Schäden), die auf verschiedenen Ebenen einer Prädiktorvariablen auftreten, z. Peak Ground Acceleration (PGA). Insbesondere: < /p>
Bei einem Schadensniveau endet die Optimierung mit unrealistischen Parameterschätzungen und konvergiert nicht ordnungsgemäß. Die Parameterschätzungen sind extrem hoch oder unrealistisch. Probleme? Gibt es in Python Standardmethoden oder integrierte Funktionen, die dazu beitragen können, diesen Prozess zu rationalisieren? /> < /p> Das [url=viewtopic.php?t=11587]Problem[/url] aus meinem Skript trat beim Ausführen auf. Ich habe versucht, drei Fragilitätskurven (leicht, stark und zusammengebrochen) zu tun. Die Mittelwert- und Standardabweichungswerte für geringfügige und kollabierte sind unlogisch.[code]print(res_slight) final_simplex: (array([[1., 1.], [1., 1.], [1., 1.]]), array([inf, inf, inf])) fun: inf message: 'Maximum number of function evaluations has been exceeded.' nfev: 403 nit: 101 status: 1 success: False x: array([1., 1.])
print(res_collapsed) final_simplex: (array([[8.67945396e+20, 3.53694860e+01], [7.84728875e+20, 3.53008691e+01], [7.54836798e+20, 3.52584876e+01]]), array([183.64705108, 183.64785074, 183.6479341 ])) fun: 183.64705108393747 message: 'Maximum number of iterations has been exceeded.' nfev: 1823 nit: 1000 status: 2 success: False x: array([8.67945396e+20, 3.53694860e+01]) [/code] This is why my fragility curves like the attached figure: [img]https://i.sstatic.net/fNiNdX6t.png[/img]
My code to derive fragility curves is: [code]from functools import partial import numpy as np from scipy import optimize, stats
Ich fange gerade erst mit Deep Learning und Python an und bin bereits an diesem Fehler festgehalten, wenn ich versuche, das Modell zu trainieren. , aber ich habe offensichtlich einige Grundlagen...
Ich verwende .NET Aspire und konfigurieren eine SQL -Serverressource wie folgt:
var sqlServerPassword = builder.AddParameter( sqlServerPassword , Password12* , secret: true);
Ich versuche, eine GPD in Python zu passen. Standard -Genpareto.fit von scipy funktioniert, aber ich möchte Parameterfehler (Empfindlichkeit) und leider nicht bereitgestellt. Wenn ich versuche, die...
Ich verwende MCMC, um eine Ellipse in einige Beispieldaten anzupassen und die Fehler auf den Parametern der Ellipse zu finden. MCMC, um eine Ellipse an meine Daten anzupassen, enthält die Gleichung...
Ich versuche, einige Daten mithilfe des Kontrollkästchens in meiner Datenbank zu speichern, aber es kann nicht gespeichert werden. Hier ist mein Code:
Ich versuche, einige Daten mithilfe des...