Quelle est la différence entre ces deux-là? Cela aiderait également à expliquer dans le contexte plus général des réseaux convolutifs.
De plus, en guise de remarque, qu'est-ce que les canaux? En d'autres termes, veuillez décomposer les 3 termes pour moi: canaux vs filtres vs noyau.
Chaque couche de convolution se compose de plusieurs canaux de convolution (aka. Profondeur ou filtres). En pratique, ils sont en nombre de 64,128,256, 512
etc. Ceci est égal au nombre de canaux en sortie de la couche de convolution. kernel_size d'autre part est la taille de ces filtres de convolution. En pratique, ils sont 3x3, 1x1 or 5x5
. En abréviation, ils pourraient s'écrire 1 or 3 or 5
car ils sont généralement carrés dans la pratique.
Modifier
La citation suivante devrait le rendre plus clair.
Supposons que X
est une entrée de taille W x H x D x N
(où N
est la taille du lot) vers une couche convolutionnelle contenant des filtres F
(avec la taille FW x FH x FD x K
) dans un réseau.
Le nombre de canaux d'entités D
est la troisième dimension de l'entrée X
ici (par exemple, il s'agit généralement de 3 à la première entrée du réseau si l'entrée se compose d'images en couleur). Le nombre de filtres K
est la quatrième dimension de F
. Les deux concepts sont étroitement liés car si le nombre de filtres dans une couche est K
, il produit une sortie avec K canaux d'entités. Ainsi, l'entrée de la couche suivante aura K
canaux de fonctionnalités.
Le FW x FH
ci-dessus correspond à la taille de filtre que vous recherchez.
Ajouté
Vous devez être familier avec filtres . Vous pouvez considérer que chaque filtre est responsable de l'extraction d'un certain type de fonctionnalité à partir d'une image brute. Les CNN essaient d'apprendre de tels filtres, c'est-à-dire que les filtres sont paramétrés dans les CNN sont appris pendant la formation des CNN. Ce sont des filtres dans CNN. Vous appliquez chaque filtre d'un Conv2D à chaque canal d'entrée et les combinez pour obtenir des canaux de sortie. Ainsi, le nombre de canaux de filtre et de sortie est le même.