Ich versuche ein Programm zu implementieren, um die TensorFlow -Leistung auf GPU -Gerät zu testen.for i in range(10000) :
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step,feed_dict={x : batch_xs, y_ : batch_ys})
if i % 500 == 0:
print(i)
< /code>
Schließlich, wenn ich die Vorhersagegenauigkeit mit diesem Code überprüfe < /p>
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,"float"))
print(sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels}))
print(tf.convert_to_tensor(mnist.test.images).get_shape())
< /code>
Es stellt sich heraus, dass sich die Genauigkeitsrate von CPU zu GPU unterscheidet: Wenn die GPU die Genauigkeitsrate ca. 0,9xx zurückgibt, während die CPU nur 0,3xx zurückgibt.
Kennt jemand den Grund? oder warum kann dieses Problem passieren?
TensorFlow Gleicher Code, erhalten jedoch unterschiedliches Ergebnis vom CPU -Gerät in das GPU -Gerät ⇐ Python
-
- Similar Topics
- Replies
- Views
- Last post