J'ai vu dans de nombreux cahiers kaggle que les gens parlent de l'approche oof lorsqu'ils font de l'apprentissage automatique avec la validation K-Fold. Qu'est-ce que oof et est-ce lié à la validation du k-fold? Pouvez-vous également suggérer des ressources utiles pour obtenir le concept en détail
Merci pour ton aide!
OOF signifie simplement "Out-of-fold" et se réfère à une étape du processus d'apprentissage lors de l'utilisation de la validation de k-fold dans laquelle les prédictions de chaque ensemble de plis sont regroupées en un groupe de 1000 prédictions. Ces prédictions sont maintenant "hors des plis" et donc l'erreur peut être calculée sur celles-ci pour obtenir une bonne mesure de la qualité de votre modèle.
En termes d'en savoir plus, il n'y a vraiment pas beaucoup plus que cela, et ce n'est certainement pas sa propre technique d'apprentissage ou quoi que ce soit. Si vous avez une petite question de suivi, veuillez laisser un commentaire et je vais essayer de mettre à jour ma réponse pour l'inclure.
EDIT: Tout en parcourant les réseaux Internet, je suis tombé sur ce question relativement similaire de Cross-Validated (avec un peu plus réponse détaillée), cela ajoutera peut-être une certaine intuition si vous êtes toujours confus.