J'utilise TensorFlow pour former un réseau neuronal convolutionnel (CNN) pour une application en langue des signes. Le CNN doit classer 27 étiquettes différentes, donc sans surprise, un problème majeur a été de s'attaquer au sur-ajustement. J'ai pris plusieurs mesures pour y parvenir:
Malheureusement, même après toutes ces étapes, je constate que je ne peux pas obtenir beaucoup mieux qu'une erreur de test d'environ 3%. (Ce n'est pas terrible, mais pour que l'application soit viable, je devrai l'améliorer considérablement.)
Je soupçonne que la source du sur-ajustement réside dans les couches convolutives car je ne prends aucune mesure explicite pour régulariser (en plus de garder les couches aussi petites que possible). Mais sur la base des exemples fournis avec TensorFlow, il ne semble pas que la régularisation ou l'abandon soit généralement appliqué aux couches convolutives.
La seule approche que j'ai trouvée en ligne qui traite explicitement de la prévention du sur-ajustement dans les couches convolutives est une approche assez nouvelle appelée Stochastic Pooling . Malheureusement, il semble qu'il n'y ait aucune implémentation pour cela dans TensorFlow, du moins pas encore.
Donc, en bref, existe-t-il une approche recommandée pour empêcher le sur-ajustement dans les couches convolutives qui peut être réalisé dans TensorFlow? Ou sera-t-il nécessaire de créer un opérateur de regroupement personnalisé pour prendre en charge l'approche de regroupement stochastique?
Merci pour tout conseil!
Thoma, Martin. " Analyse et optimisation des architectures de réseaux de neurones convolutionnels ." arXiv preprint arXiv: 1707.09725 (2017).
Voir le chapitre 2.5 pour les techniques d'analyse. Comme indiqué au début de ce chapitre, vous pouvez généralement effectuer les opérations suivantes:
Le CNN doit classer 27 étiquettes différentes, donc sans surprise, un problème majeur a été de s'attaquer au sur-ajustement.
Je ne comprends pas comment cela est connecté. Vous pouvez avoir des centaines d'étiquettes sans problème de sur-ajustement.