TensorFlow Gleicher Code, erhalten jedoch unterschiedliches Ergebnis vom CPU -Gerät in das GPU -GerätPython

Python-Programme
Anonymous
 TensorFlow Gleicher Code, erhalten jedoch unterschiedliches Ergebnis vom CPU -Gerät in das GPU -Gerät

Post by Anonymous »

Ich versuche ein Programm zu implementieren, um die TensorFlow -Leistung auf GPU -Gerät zu testen.for i in range(10000) :
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step,feed_dict={x : batch_xs, y_ : batch_ys})
if i % 500 == 0:
print(i)
< /code>

Schließlich, wenn ich die Vorhersagegenauigkeit mit diesem Code überprüfe < /p>

correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,"float"))
print(sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels}))
print(tf.convert_to_tensor(mnist.test.images).get_shape())
< /code>

Es stellt sich heraus, dass sich die Genauigkeitsrate von CPU zu GPU unterscheidet: Wenn die GPU die Genauigkeitsrate ca. 0,9xx zurückgibt, während die CPU nur 0,3xx zurückgibt.
Kennt jemand den Grund? oder warum kann dieses Problem passieren?

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post