Je suis en train de suivre ce tutoriel d’apprentissage par renforcement et c’est vraiment formidable jusqu’à présent, mais quelqu'un pourrait-il expliquer
newQ = model.predict(new_state.reshape(1,64), batch_size=1)
et
model.fit(X_train, y_train, batch_size=batchSize, nb_Epoch=1, verbose=1)
signifier?
Comme dans quoi font les arguments bach_size
, nb_Epoch
et verbose
? Je connais les réseaux de neurones, il serait donc utile d’expliquer cela.
Vous pouvez également m'envoyer un lien où la documentation de ces fonctions peut être trouvée.
Tout d’abord, cela me surprend de ne pas pouvoir trouver la documentation mais je suppose que vous n’avez pas eu de chance en recherchant.
La documentation indique pour model.fit
:
fit(self, x, y, batch_size=32, nb_Epoch=10, verbose=1, callbacks=[], validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None)
batch_size
: entier. Nombre d'échantillons par mise à jour de gradient.nb_Epoch
: entier, le nombre d'itérations à parcourir sur les tableaux de données d'apprentissage.verbose
: 0, 1 ou 2. Mode verbosité. 0 = silencieux, 1 = détaillé, 2 = une ligne de journal par époque.
Le paramètre batch_size
dans le cas de model.predict
correspond uniquement au nombre d'échantillons utilisés pour chaque étape de prédiction. Donc, appeler model.predict
une fois consomme batch_size
nombre d'échantillons de données. Cela aide les périphériques capables de traiter rapidement des matrices volumineuses (telles que les GPU).