TensorFlow: comment est dataset.le train.next_batch défini?
Je suis en train d'apprendre TensorFlow et l'étude de l'exemple: https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/autoencoder.ipynb
Je puis avoir quelques questions dans le code ci-dessous:
for epoch in range(training_epochs):
# Loop over all batches
for i in range(total_batch):
batch_xs, batch_ys = mnist.train.next_batch(batch_size)
# Run optimization op (backprop) and cost op (to get loss value)
_, c = sess.run([optimizer, cost], feed_dict={X: batch_xs})
# Display logs per epoch step
if epoch % display_step == 0:
print("Epoch:", '%04d' % (epoch+1),
"cost=", "{:.9f}".format(c))
Depuis mnist est juste un jeu de données, qu'est-ce exactement ne mnist.train.next_batch
veux dire? Comment était le dataset.train.next_batch
défini?
Merci!
OriginalL'auteur Edamame | 2017-01-04
Vous devez vous connecter pour publier un commentaire.
La
mnist
objet est retourné à partir de laread_data_sets()
function définis dans letf.contrib.learn
module. Lemnist.train.next_batch(batch_size)
méthode est mise en œuvre ici, et elle renvoie un tuple de deux tableaux, où le premier est un lot debatch_size
MNIST images, et la deuxième correspond à un lot debatch-size
étiquettes correspondant à ces images.Les images sont retournés comme un 2-D tableau NumPy de taille
[batch_size, 784]
(puisqu'il y a 784 pixels dans une MNIST de l'image), et les étiquettes sont retournés comme un 1-D tableau NumPy de taille[batch_size]
(siread_data_sets()
a été appelé avecone_hot=False
) ou 2-D tableau NumPy de taille[batch_size, 10]
(siread_data_sets()
a été appelé avecone_hot=True
).DataSet._index_in_epoch
, commemnist.train._index_in_epoch
OriginalL'auteur mrry