Quelle est la différence entre standardscaler et normalisant dans le module sklearn.preprocessing? Les deux ne font-ils pas la même chose? c'est-à-dire supprimer la moyenne et l'échelle en utilisant la déviation?
Depuis le Normalizer docs:
Chaque échantillon (c'est-à-dire chaque ligne de la matrice de données) avec au moins une composante non nulle est redimensionné indépendamment des autres échantillons, de sorte que sa norme (l1 ou l2) est égale à un.
Normaliser les entités en supprimant la moyenne et en adaptant la variance à l'unité
En d'autres termes, Normalizer agit row-wise et StandardScaler column-wise. Le normalisateur ne supprime pas la moyenne et les échelles par déviation mais adapte la rangée entière à la norme d'unité.
Cette visualisation et article de Ben aide beaucoup à illustrer l'idée.
StandardScaler suppose que vos données sont normalement distribuées dans chaque fonction. En "supprimant la moyenne et en mettant à l'échelle la variance d'unité", vous pouvez voir dans l'image qu'ils ont maintenant la même "échelle", quelle que soit son origine.
StandardScaler normalise les fonctionnalités en supprimant la moyenne et en adaptant la variance à l'unité, Normalizer redimensionne chaque échantillon.
StandardScaler () standardise les fonctionnalités (telles que les fonctionnalités des données de personne, telles que la taille et le poids) en supprimant la moyenne et en adaptant la variance à l'unité.
(Variance unitaire: La variance unitaire signifie que l'écart type d'un échantillon et la variance tendent vers 1, la taille de l'échantillon tend vers l'infini.)
Normalizer () redimensionne chaque échantillon. Par exemple, rééchelonner le cours des actions de chaque société indépendamment de l'autre.
Certains stocks sont plus chers que d'autres. Pour en tenir compte, nous le normalisons. Le normalisateur transformera séparément le cours des actions de chaque société en une échelle relative.