Je lis l'implémentation des gens de DCGAN, en particulier celui-ci dans tensorflow.
Dans cette implémentation, l'auteur tire les pertes du discriminateur et du générateur, ce qui est illustré ci-dessous (les images proviennent de https://github.com/carpedm20/DCGAN-tensorflow ):
Les pertes du discriminateur et du générateur ne semblent suivre aucun schéma. Contrairement aux réseaux neuronaux généraux, dont la perte diminue avec l'augmentation de l'itération d'entraînement. Comment interpréter la perte lors de la formation des GAN?
Malheureusement, comme vous l'avez dit pour les GAN, les pertes sont très peu intuitives. La plupart du temps, cela tient au fait que le générateur et le discriminateur se font concurrence, donc l'amélioration de l'un signifie la perte la plus élevée de l'autre, jusqu'à ce que cet autre apprenne mieux sur la perte reçue, ce qui fout son concurrent, etc.
Maintenant, une chose qui devrait se produire assez souvent (en fonction de vos données et de l'initialisation) est que les pertes du discriminateur et du générateur convergent vers des nombres permanents, comme ceci: (il est normal que la perte rebondisse un peu - c'est juste la preuve que le modèle essaie de s'améliorer)
Cette convergence de perte signifierait normalement que le modèle GAN a trouvé un optimum, où il ne peut pas s'améliorer davantage, ce qui devrait également signifier qu'il a suffisamment bien appris. (Notez également que les chiffres eux-mêmes ne sont généralement pas très instructifs.)
Voici quelques notes annexes qui, je l'espère, vous seraient utiles: