Dies ist ein neuronales Netzwerk, das ich versuchte, ich bin nicht allzu sicher über meinen Backpropogation, aber es scheint mindestens Antworten zu konvergieren, obwohl es bei 4 Zahlen und der Lösung, den Mittelwert der 4 Zahlen zu finden, zu konvergieren, scheint es zu 50 zu konvergieren, dass es "sicher" ist, anstatt das zugrunde liegende Muster zu lernen, entweder mit Problemen mit meinem Code oder mit der Theorie hinter dem Problem, dank!
Dies ist ein neuronales Netzwerk, das ich versuchte, ich bin nicht allzu sicher über meinen Backpropogation, aber es scheint mindestens Antworten zu konvergieren, obwohl es bei 4 Zahlen und der Lösung, den Mittelwert der 4 Zahlen zu finden, zu konvergieren, scheint es zu 50 zu konvergieren, dass es "sicher" ist, anstatt das zugrunde liegende Muster zu lernen, entweder mit Problemen mit meinem Code oder mit der Theorie hinter dem Problem, dank![code]import numpy as np
def sigmoid(self,x): pass def createActivations(self): self.activations = self.layersConfig.copy() #check for i in range(len(self.activations)): if i == 0: self.activations[i] = np.random.rand(self.activations[i])# temporary input layer else: self.activations[i] = np.zeros(self.activations[i]) #print(self.activations) #maybe they should all be 0??
def createWeights(self): self.weights = [] for i in range(len(self.layersConfig)-1): self.weights.append(np.random.randn(self.layersConfig[i+1],self.layersConfig[i])) #create matrixes of weight connections between layers #print(self.weights) # print(self.weights[1][1]) # print(np.flip(np.rot90((self.weights[1])))) def createBiases(self): self.biases = self.layersConfig.copy() #check for i in range(len(self.biases)-1): self.biases[i] = np.random.randn(self.biases[i+1]) self.biases = self.biases[:-1] #self.biases = (np.random.rand(len(self.layersConfig))) #create biases for each layer #print(self.biases)
def feedFwd(self,k,n): #n denoting the layer that calculations are being done with, k denoting the next layers node being activated ##print(self.biases[n][k],n,k) ##print("looped") return self.reLU(np.dot(self.weights[n][k],self.activations[n]) + self.biases[n][k])
def forwardPropogation(self,inputs): #working?? self.activations[0] = np.array(inputs) self.preActivations = self.activations.copy() for i in range(len(self.layersConfig)-1): for j in range(len(self.activations[i+1])): self.activations[i+1][j] = self.feedFwd(j,i) self.preActivations[i+1][j] = np.dot(self.weights[i][j],self.activations[i]) + self.biases[i][j]
# dzda = self.reLUd(self.errorVec) #update that part of the gradVecs and work backwards #print(self.errorVec[-1],self.findCost(desiredValues,self.errorVec[-1])) #self.errorVec[-1] = self.findCost(desiredValues,self.errorVec[-1]) #need to find the desired values
Ich versuche, ein neuronales Netzwerk zu codieren, das aus µ = p · n ((1 -p) a; in) + (1 - p) · n (–pa; in) unter Verwendung der isotropen Diffusion (y_t = t*x + w_t, mit (w_t) _t brauner Bewegung,...
Ich kämpfe darum, die MSE für eine Regressionsbasis zu minimieren. Ich habe drei Eingänge und zwei Ausgänge. Aber ich komme leer. Die MSE ist nicht nahezu Null oder sogar weniger als 10. Sie könnte...
Ich fand ein sehr interessantes Papier, Physik, informiert Deep Learning (Teil I): datengesteuerte Lösungen nichtlinearer partieller Differentialgleichungen und möchten ihm einen Versuch vorstellen....
Ich trainiere eine physik informierte neuronale Netzwerk mit den Wellenausbreitungsdaten. Die Form des Trainingseingangs ist (193524369, 3). Ich verwende derzeit die Stapelgröße als 2048 und Epoche...
Ich habe diese App auch zuvor erstellt. Es war völlig in Ordnung. Kürzlich habe ich Expo-SDK und alle Abhängigkeiten aktualisiert und React-Native-Google-Mobile-Ads mit ordnungsgemäßen...