Wie kann man alle Begriffe im 1-D-Gaußschen Gemischmodell erzwingen, den gleichen Mittelwert zu haben?Python

Python-Programme
Guest
 Wie kann man alle Begriffe im 1-D-Gaußschen Gemischmodell erzwingen, den gleichen Mittelwert zu haben?

Post by Guest »

Ich habe einen eindimensionalen Satz von Datenpunkten, von denen ich die Wahrscheinlichkeitsdichte parameterisieren möchte. Ich habe Gründe zu der Annahme, dass ein Gaußsche Mischungsmodell eine gute Möglichkeit wäre, dies zu erreichen Spielzeugbeispiel: < /p>
import numpy as np
from sklearn.mixture import GaussianMixture

stdev_1 = 5
stdev_2 = 30
gaussian_data_1 = stdev_1 * np.random.randn(1000)
gaussian_data_2 = stdev_2 * np.random.randn(1000)

data = np.concatenate([gaussian_data_1, gaussian_data_2])
model = GaussianMixture(2)
data_2d = data.reshape((len(data), 1))
model.fit(data_2d)

print("Estimated means:", model.means_[:, 0])
print("Estimated stdevs:", model.covariances_[:, 0, 0] ** 0.5)
print("Estimated weights:", model.weights_)
< /code>
Das resultierende Modell hat angemessene Schätzungen von zwei Gaußern. Ich habe Nullmittel und Standardabweichungen von 5 und 30 mit Gewichten von 0,5 (beide 1000 Datenpunkte) eingelegt und die Mittelwerte von [-0,0715483 und -0.06263915], Standardabweichungen von [5.46757321 und 30.779774666666], gefunden,],,],. und Gewichte von [0,53427173 und 0,46572827]. > dass die zugrunde liegende Verteilung unimodal ist und ich wirklich nur herausfinden möchte, welche Kombination von (Standardabweichungen und Gewichten) am besten passt. Daher möchte ich Force dieses Modell die gleichen Mittel verwenden, beispielsweise indem ich es einfach selbst überträgt und es nur die Gewichte und Standardabweichungen (Abweichungen) optimieren kann.
Ist das mit Scikit-Learn möglich? Die GaußsianMixture -Klasse scheint für Klassifizierung ausgelegt zu sein, während ich sie tatsächlich für die Parameterisierung einer Verteilung verwende. Ich bin mir nicht bewusst.>

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post