Le hachage d'un mot de passe deux fois avant le stockage est-il plus ou moins sécurisé que le simple hachage une fois?
Ce dont je parle est en train de faire ceci:
$hashed_password = hash(hash($plaintext_password));
au lieu de cela:
$hashed_password = hash($plaintext_password);
S'il est moins sécurisé, pouvez-vous fournir une bonne explication (ou un lien vers une autre)?
De plus, la fonction de hachage utilisée fait-elle une différence? Cela fait-il une différence si vous mélangez md5 et sha1 (par exemple) au lieu de répéter la même fonction de hachage?
Remarque 1: Lorsque je dis "double hachage", je parle de hachage deux fois d'un mot de passe pour le rendre plus obscur. Je ne parle pas de technique de résolution des collisions .
Note 2: Je sais que je dois ajouter un sel aléatoire pour vraiment le sécuriser. La question est de savoir si hacher deux fois avec le même algorithme aide ou blesse le hachage.
Non, les hachages multiples ne sont pas moins sécurisés. ils constituent un élément essentiel de l’utilisation sécurisée des mots de passe.
L'itération du hachage augmente le temps nécessaire à un attaquant pour essayer chaque mot de passe de sa liste de candidats. Vous pouvez facilement augmenter le temps nécessaire pour attaquer un mot de passe de quelques heures à plusieurs années.
Le simple chaînage de la sortie de hachage à l'entrée ne suffit pas pour la sécurité L'itération doit avoir lieu dans le contexte d'un algorithme qui préserve l'entropie du mot de passe. Heureusement, plusieurs algorithmes publiés ont fait l’objet d’un examen minutieux pour donner confiance en leur conception.
Un bon algorithme de dérivation de clé tel que PBKDF2 injecte le mot de passe dans chaque cycle de hachage, atténuant ainsi les préoccupations concernant les collisions dans la sortie de hachage. PBKDF2 peut être utilisé tel quel pour l'authentification par mot de passe. Bcrypt suit la dérivation de clé avec une étape de cryptage; de cette manière, si un moyen rapide d’inverser la dérivation de clé est découvert, un attaquant doit néanmoins mener une attaque par du texte clair connu.
Les mots de passe stockés doivent être protégés contre les attaques hors ligne. Si les mots de passe ne sont pas salés, ils peuvent être cassés avec une attaque par dictionnaire pré-calculée (par exemple, en utilisant une table Rainbow). Sinon, l'attaquant doit passer du temps à calculer un hachage pour chaque mot de passe et voir s'il correspond au hachage stocké.
Tous les mots de passe ne sont pas également probables. Les attaquants peuvent rechercher de manière exhaustive tous les mots de passe courts, mais ils savent que leurs chances de succès en force brute diminuent brusquement avec chaque personnage supplémentaire. Au lieu de cela, ils utilisent une liste ordonnée des mots de passe les plus probables. Ils commencent par "password123" et progressent vers des mots de passe moins fréquemment utilisés.
Supposons qu'une liste d'attaquants soit longue, avec 10 milliards de candidats; supposons également qu’un ordinateur de bureau puisse calculer 1 million de hachages par seconde. L’attaquant peut tester toute sa liste pendant moins de trois heures si une seule itération est utilisée. Mais si seulement 2000 itérations sont utilisées, ce délai est de presque 8 mois. Pour vaincre un attaquant plus sophistiqué, capable de télécharger un programme capable d'exploiter la puissance de son processeur graphique, par exemple, vous avez besoin de davantage d'itérations.
Le nombre d'itérations à utiliser est un compromis entre sécurité et expérience utilisateur. Le matériel spécialisé pouvant être utilisé par les attaquants est bon marché, mais il peut toujours effectuer des centaines de millions d’itérations par seconde. Performances de l’attaquant de Le système détermine le temps nécessaire à la suppression d'un mot de passe en fonction d'un certain nombre d'itérations. Mais votre application n’utilisera probablement pas ce matériel spécialisé. Le nombre d'itérations que vous pouvez effectuer sans aggraver les utilisateurs dépend de votre système .
Vous pouvez probablement laisser les utilisateurs attendre environ seconde supplémentaire lors de l'authentification. Profilez votre plate-forme cible et utilisez autant d'itérations que vous pouvez vous le permettre. Les plates-formes que j'ai testées (un utilisateur sur un périphérique mobile ou de nombreux utilisateurs sur une plate-forme serveur) peuvent aisément prendre en charge PBKDF2 avec entre 60 000 et 120 000 itérations ou bcrypt avec coût facteur de 12 ou 13.
Lisez PKCS # 5 pour obtenir des informations faisant autorité sur le rôle du sel et les itérations dans le hachage. Même si PBKDF2 était destiné à générer des clés de cryptage à partir de mots de passe, il fonctionne bien comme un hachage à sens unique pour l'authentification par mot de passe. Chaque itération de bcrypt est plus chère qu'un hachage SHA-2, vous pouvez donc utiliser moins d'itérations, mais l'idée est la même. Bcrypt va également au-delà de la plupart des solutions basées sur PBKDF2 en utilisant la clé dérivée pour chiffrer un texte brut bien connu. Le texte chiffré résultant est stocké sous forme de "hachage", avec certaines méta-données. Cependant, rien ne vous empêche de faire la même chose avec PBKDF2.
Voici d'autres réponses que j'ai écrites sur ce sujet:
Pour ceux qui disent que c'est sécurisé, ils sont corrects en général . Le "double" hachage (ou son développement logique, itérant une fonction de hachage) est absolument sécurisé s'il est correctement effectué , pour un problème spécifique.
Pour ceux qui disent que ce n'est pas sûr, ils sont corrects dans ce cas . Le code affiché dans la question est peu sécurisé. Parlons de pourquoi:
$hashed_password1 = md5( md5( plaintext_password ) );
$hashed_password2 = md5( plaintext_password );
Nous sommes préoccupés par deux propriétés fondamentales d'une fonction de hachage:
Résistance avant l'image - Avec un hachage $h
, Il devrait être difficile de trouver un message $m
Tel que $h === hash($m)
Seconde résistance à la pré-image - Avec un message $m1
, Il devrait être difficile de trouver un message différent $m2
Tel que hash($m1) === hash($m2)
Résistance à la collision - Il devrait être difficile de trouver une paire de messages ($m1, $m2)
Tels que hash($m1) === hash($m2)
(notez que ceci est similaire à la résistance Second-Pre-Image , mais différent en ce sens que l'attaquant contrôle les deux messages) ...
Pour le stockage des mots de passe , tout ce qui nous intéresse, c'est La résistance à la pré-image. Les deux autres seraient sans objet, car $m1
Est le mot de passe de l'utilisateur que nous essayons de protéger. Donc, si l'attaquant l'a déjà, le hash n'a rien à protéger ...
Tout ce qui suit est basé sur le principe que tout ce qui nous intéresse est Résistance avant l'image. Les deux autres propriétés fondamentales des fonctions de hachage peuvent ne pas (et généralement ne pas) tenir de la même manière. Les conclusions de cet article ne s'appliquent donc qu'à l'utilisation de fonctions de hachage pour le stockage de mots de passe. Ils ne sont pas applicables en général ...
Dans l'intérêt de cette discussion, inventons notre propre fonction de hachage:
function ourHash($input) {
$result = 0;
for ($i = 0; $i < strlen($input); $i++) {
$result += ord($input[$i]);
}
return (string) ($result % 256);
}
Maintenant, il devrait être assez évident de savoir ce que cette fonction de hachage fait. Il additionne les valeurs ASCII de chaque caractère d'entrée), puis prend le modulo de ce résultat avec 256.
Alors testons-le:
var_dump(
ourHash('abc'), // string(2) "38"
ourHash('def'), // string(2) "47"
ourHash('hij'), // string(2) "59"
ourHash('klm') // string(2) "68"
);
Voyons maintenant ce qui se passe si nous l'exécutons plusieurs fois autour d'une fonction:
$tests = array(
"abc",
"def",
"hij",
"klm",
);
foreach ($tests as $test) {
$hash = $test;
for ($i = 0; $i < 100; $i++) {
$hash = ourHash($hash);
}
echo "Hashing $test => $hash\n";
}
Cela produit:
Hashing abc => 152
Hashing def => 152
Hashing hij => 155
Hashing klm => 155
Hm, wow. Nous avons généré des collisions !!! Essayons de voir pourquoi:
Voici la sortie du hachage d'une chaîne de chaque sortie de hachage possible:
Hashing 0 => 48
Hashing 1 => 49
Hashing 2 => 50
Hashing 3 => 51
Hashing 4 => 52
Hashing 5 => 53
Hashing 6 => 54
Hashing 7 => 55
Hashing 8 => 56
Hashing 9 => 57
Hashing 10 => 97
Hashing 11 => 98
Hashing 12 => 99
Hashing 13 => 100
Hashing 14 => 101
Hashing 15 => 102
Hashing 16 => 103
Hashing 17 => 104
Hashing 18 => 105
Hashing 19 => 106
Hashing 20 => 98
Hashing 21 => 99
Hashing 22 => 100
Hashing 23 => 101
Hashing 24 => 102
Hashing 25 => 103
Hashing 26 => 104
Hashing 27 => 105
Hashing 28 => 106
Hashing 29 => 107
Hashing 30 => 99
Hashing 31 => 100
Hashing 32 => 101
Hashing 33 => 102
Hashing 34 => 103
Hashing 35 => 104
Hashing 36 => 105
Hashing 37 => 106
Hashing 38 => 107
Hashing 39 => 108
Hashing 40 => 100
Hashing 41 => 101
Hashing 42 => 102
Hashing 43 => 103
Hashing 44 => 104
Hashing 45 => 105
Hashing 46 => 106
Hashing 47 => 107
Hashing 48 => 108
Hashing 49 => 109
Hashing 50 => 101
Hashing 51 => 102
Hashing 52 => 103
Hashing 53 => 104
Hashing 54 => 105
Hashing 55 => 106
Hashing 56 => 107
Hashing 57 => 108
Hashing 58 => 109
Hashing 59 => 110
Hashing 60 => 102
Hashing 61 => 103
Hashing 62 => 104
Hashing 63 => 105
Hashing 64 => 106
Hashing 65 => 107
Hashing 66 => 108
Hashing 67 => 109
Hashing 68 => 110
Hashing 69 => 111
Hashing 70 => 103
Hashing 71 => 104
Hashing 72 => 105
Hashing 73 => 106
Hashing 74 => 107
Hashing 75 => 108
Hashing 76 => 109
Hashing 77 => 110
Hashing 78 => 111
Hashing 79 => 112
Hashing 80 => 104
Hashing 81 => 105
Hashing 82 => 106
Hashing 83 => 107
Hashing 84 => 108
Hashing 85 => 109
Hashing 86 => 110
Hashing 87 => 111
Hashing 88 => 112
Hashing 89 => 113
Hashing 90 => 105
Hashing 91 => 106
Hashing 92 => 107
Hashing 93 => 108
Hashing 94 => 109
Hashing 95 => 110
Hashing 96 => 111
Hashing 97 => 112
Hashing 98 => 113
Hashing 99 => 114
Hashing 100 => 145
Hashing 101 => 146
Hashing 102 => 147
Hashing 103 => 148
Hashing 104 => 149
Hashing 105 => 150
Hashing 106 => 151
Hashing 107 => 152
Hashing 108 => 153
Hashing 109 => 154
Hashing 110 => 146
Hashing 111 => 147
Hashing 112 => 148
Hashing 113 => 149
Hashing 114 => 150
Hashing 115 => 151
Hashing 116 => 152
Hashing 117 => 153
Hashing 118 => 154
Hashing 119 => 155
Hashing 120 => 147
Hashing 121 => 148
Hashing 122 => 149
Hashing 123 => 150
Hashing 124 => 151
Hashing 125 => 152
Hashing 126 => 153
Hashing 127 => 154
Hashing 128 => 155
Hashing 129 => 156
Hashing 130 => 148
Hashing 131 => 149
Hashing 132 => 150
Hashing 133 => 151
Hashing 134 => 152
Hashing 135 => 153
Hashing 136 => 154
Hashing 137 => 155
Hashing 138 => 156
Hashing 139 => 157
Hashing 140 => 149
Hashing 141 => 150
Hashing 142 => 151
Hashing 143 => 152
Hashing 144 => 153
Hashing 145 => 154
Hashing 146 => 155
Hashing 147 => 156
Hashing 148 => 157
Hashing 149 => 158
Hashing 150 => 150
Hashing 151 => 151
Hashing 152 => 152
Hashing 153 => 153
Hashing 154 => 154
Hashing 155 => 155
Hashing 156 => 156
Hashing 157 => 157
Hashing 158 => 158
Hashing 159 => 159
Hashing 160 => 151
Hashing 161 => 152
Hashing 162 => 153
Hashing 163 => 154
Hashing 164 => 155
Hashing 165 => 156
Hashing 166 => 157
Hashing 167 => 158
Hashing 168 => 159
Hashing 169 => 160
Hashing 170 => 152
Hashing 171 => 153
Hashing 172 => 154
Hashing 173 => 155
Hashing 174 => 156
Hashing 175 => 157
Hashing 176 => 158
Hashing 177 => 159
Hashing 178 => 160
Hashing 179 => 161
Hashing 180 => 153
Hashing 181 => 154
Hashing 182 => 155
Hashing 183 => 156
Hashing 184 => 157
Hashing 185 => 158
Hashing 186 => 159
Hashing 187 => 160
Hashing 188 => 161
Hashing 189 => 162
Hashing 190 => 154
Hashing 191 => 155
Hashing 192 => 156
Hashing 193 => 157
Hashing 194 => 158
Hashing 195 => 159
Hashing 196 => 160
Hashing 197 => 161
Hashing 198 => 162
Hashing 199 => 163
Hashing 200 => 146
Hashing 201 => 147
Hashing 202 => 148
Hashing 203 => 149
Hashing 204 => 150
Hashing 205 => 151
Hashing 206 => 152
Hashing 207 => 153
Hashing 208 => 154
Hashing 209 => 155
Hashing 210 => 147
Hashing 211 => 148
Hashing 212 => 149
Hashing 213 => 150
Hashing 214 => 151
Hashing 215 => 152
Hashing 216 => 153
Hashing 217 => 154
Hashing 218 => 155
Hashing 219 => 156
Hashing 220 => 148
Hashing 221 => 149
Hashing 222 => 150
Hashing 223 => 151
Hashing 224 => 152
Hashing 225 => 153
Hashing 226 => 154
Hashing 227 => 155
Hashing 228 => 156
Hashing 229 => 157
Hashing 230 => 149
Hashing 231 => 150
Hashing 232 => 151
Hashing 233 => 152
Hashing 234 => 153
Hashing 235 => 154
Hashing 236 => 155
Hashing 237 => 156
Hashing 238 => 157
Hashing 239 => 158
Hashing 240 => 150
Hashing 241 => 151
Hashing 242 => 152
Hashing 243 => 153
Hashing 244 => 154
Hashing 245 => 155
Hashing 246 => 156
Hashing 247 => 157
Hashing 248 => 158
Hashing 249 => 159
Hashing 250 => 151
Hashing 251 => 152
Hashing 252 => 153
Hashing 253 => 154
Hashing 254 => 155
Hashing 255 => 156
Notez la tendance vers des nombres plus élevés. Cela s'avère être notre mort. L'exécution du hachage 4 fois ($ hash = ourHash ($ hash) `, pour chaque élément) aboutit à nous donner:
Hashing 0 => 153
Hashing 1 => 154
Hashing 2 => 155
Hashing 3 => 156
Hashing 4 => 157
Hashing 5 => 158
Hashing 6 => 150
Hashing 7 => 151
Hashing 8 => 152
Hashing 9 => 153
Hashing 10 => 157
Hashing 11 => 158
Hashing 12 => 150
Hashing 13 => 154
Hashing 14 => 155
Hashing 15 => 156
Hashing 16 => 157
Hashing 17 => 158
Hashing 18 => 150
Hashing 19 => 151
Hashing 20 => 158
Hashing 21 => 150
Hashing 22 => 154
Hashing 23 => 155
Hashing 24 => 156
Hashing 25 => 157
Hashing 26 => 158
Hashing 27 => 150
Hashing 28 => 151
Hashing 29 => 152
Hashing 30 => 150
Hashing 31 => 154
Hashing 32 => 155
Hashing 33 => 156
Hashing 34 => 157
Hashing 35 => 158
Hashing 36 => 150
Hashing 37 => 151
Hashing 38 => 152
Hashing 39 => 153
Hashing 40 => 154
Hashing 41 => 155
Hashing 42 => 156
Hashing 43 => 157
Hashing 44 => 158
Hashing 45 => 150
Hashing 46 => 151
Hashing 47 => 152
Hashing 48 => 153
Hashing 49 => 154
Hashing 50 => 155
Hashing 51 => 156
Hashing 52 => 157
Hashing 53 => 158
Hashing 54 => 150
Hashing 55 => 151
Hashing 56 => 152
Hashing 57 => 153
Hashing 58 => 154
Hashing 59 => 155
Hashing 60 => 156
Hashing 61 => 157
Hashing 62 => 158
Hashing 63 => 150
Hashing 64 => 151
Hashing 65 => 152
Hashing 66 => 153
Hashing 67 => 154
Hashing 68 => 155
Hashing 69 => 156
Hashing 70 => 157
Hashing 71 => 158
Hashing 72 => 150
Hashing 73 => 151
Hashing 74 => 152
Hashing 75 => 153
Hashing 76 => 154
Hashing 77 => 155
Hashing 78 => 156
Hashing 79 => 157
Hashing 80 => 158
Hashing 81 => 150
Hashing 82 => 151
Hashing 83 => 152
Hashing 84 => 153
Hashing 85 => 154
Hashing 86 => 155
Hashing 87 => 156
Hashing 88 => 157
Hashing 89 => 158
Hashing 90 => 150
Hashing 91 => 151
Hashing 92 => 152
Hashing 93 => 153
Hashing 94 => 154
Hashing 95 => 155
Hashing 96 => 156
Hashing 97 => 157
Hashing 98 => 158
Hashing 99 => 150
Hashing 100 => 154
Hashing 101 => 155
Hashing 102 => 156
Hashing 103 => 157
Hashing 104 => 158
Hashing 105 => 150
Hashing 106 => 151
Hashing 107 => 152
Hashing 108 => 153
Hashing 109 => 154
Hashing 110 => 155
Hashing 111 => 156
Hashing 112 => 157
Hashing 113 => 158
Hashing 114 => 150
Hashing 115 => 151
Hashing 116 => 152
Hashing 117 => 153
Hashing 118 => 154
Hashing 119 => 155
Hashing 120 => 156
Hashing 121 => 157
Hashing 122 => 158
Hashing 123 => 150
Hashing 124 => 151
Hashing 125 => 152
Hashing 126 => 153
Hashing 127 => 154
Hashing 128 => 155
Hashing 129 => 156
Hashing 130 => 157
Hashing 131 => 158
Hashing 132 => 150
Hashing 133 => 151
Hashing 134 => 152
Hashing 135 => 153
Hashing 136 => 154
Hashing 137 => 155
Hashing 138 => 156
Hashing 139 => 157
Hashing 140 => 158
Hashing 141 => 150
Hashing 142 => 151
Hashing 143 => 152
Hashing 144 => 153
Hashing 145 => 154
Hashing 146 => 155
Hashing 147 => 156
Hashing 148 => 157
Hashing 149 => 158
Hashing 150 => 150
Hashing 151 => 151
Hashing 152 => 152
Hashing 153 => 153
Hashing 154 => 154
Hashing 155 => 155
Hashing 156 => 156
Hashing 157 => 157
Hashing 158 => 158
Hashing 159 => 159
Hashing 160 => 151
Hashing 161 => 152
Hashing 162 => 153
Hashing 163 => 154
Hashing 164 => 155
Hashing 165 => 156
Hashing 166 => 157
Hashing 167 => 158
Hashing 168 => 159
Hashing 169 => 151
Hashing 170 => 152
Hashing 171 => 153
Hashing 172 => 154
Hashing 173 => 155
Hashing 174 => 156
Hashing 175 => 157
Hashing 176 => 158
Hashing 177 => 159
Hashing 178 => 151
Hashing 179 => 152
Hashing 180 => 153
Hashing 181 => 154
Hashing 182 => 155
Hashing 183 => 156
Hashing 184 => 157
Hashing 185 => 158
Hashing 186 => 159
Hashing 187 => 151
Hashing 188 => 152
Hashing 189 => 153
Hashing 190 => 154
Hashing 191 => 155
Hashing 192 => 156
Hashing 193 => 157
Hashing 194 => 158
Hashing 195 => 159
Hashing 196 => 151
Hashing 197 => 152
Hashing 198 => 153
Hashing 199 => 154
Hashing 200 => 155
Hashing 201 => 156
Hashing 202 => 157
Hashing 203 => 158
Hashing 204 => 150
Hashing 205 => 151
Hashing 206 => 152
Hashing 207 => 153
Hashing 208 => 154
Hashing 209 => 155
Hashing 210 => 156
Hashing 211 => 157
Hashing 212 => 158
Hashing 213 => 150
Hashing 214 => 151
Hashing 215 => 152
Hashing 216 => 153
Hashing 217 => 154
Hashing 218 => 155
Hashing 219 => 156
Hashing 220 => 157
Hashing 221 => 158
Hashing 222 => 150
Hashing 223 => 151
Hashing 224 => 152
Hashing 225 => 153
Hashing 226 => 154
Hashing 227 => 155
Hashing 228 => 156
Hashing 229 => 157
Hashing 230 => 158
Hashing 231 => 150
Hashing 232 => 151
Hashing 233 => 152
Hashing 234 => 153
Hashing 235 => 154
Hashing 236 => 155
Hashing 237 => 156
Hashing 238 => 157
Hashing 239 => 158
Hashing 240 => 150
Hashing 241 => 151
Hashing 242 => 152
Hashing 243 => 153
Hashing 244 => 154
Hashing 245 => 155
Hashing 246 => 156
Hashing 247 => 157
Hashing 248 => 158
Hashing 249 => 159
Hashing 250 => 151
Hashing 251 => 152
Hashing 252 => 153
Hashing 253 => 154
Hashing 254 => 155
Hashing 255 => 156
Nous nous sommes limités à 8 valeurs ... C'est mauvais ... Notre fonction d'origine a mappé S(∞)
sur S(256)
. C'est-à-dire que nous avons créé un fonction surjective mappant $input
À $output
.
Comme nous avons une fonction Surjective, nous n’avons aucune garantie que le mappage de tout sous-ensemble de l’entrée n’aura pas de collision (en fait, c’est ce qui se produira).
C'est ce qui s'est passé ici! Notre fonction était mauvaise, mais ce n’est pas la raison pour laquelle cela a fonctionné (c’est pourquoi cela a fonctionné aussi rapidement et aussi complètement).
La même chose se produit avec MD5
. Il mappe S(∞)
sur S(2^128)
. Puisqu'il n'y a aucune garantie que l'exécution de MD5(S(output))
sera Injective , ce qui signifie qu'il n'y aura pas de collision.
Par conséquent, étant donné que renvoyer directement la sortie vers md5
Peut générer des collisions, chaque itération augmente les risques de collision. Cependant, il s’agit d’une augmentation linéaire, ce qui signifie que bien que l’ensemble de résultats de 2^128
Soit réduit, il n’est pas suffisamment réduit suffisamment rapidement pour être considéré comme un défaut critique.
Alors,
$output = md5($input); // 2^128 possibilities
$output = md5($output); // < 2^128 possibilities
$output = md5($output); // < 2^128 possibilities
$output = md5($output); // < 2^128 possibilities
$output = md5($output); // < 2^128 possibilities
Plus vous parcourez, plus la réduction va loin.
Heureusement pour nous, il existe un moyen trivial de résoudre ce problème: Rétroaction quelque chose dans les itérations suivantes:
$output = md5($input); // 2^128 possibilities
$output = md5($input . $output); // 2^128 possibilities
$output = md5($input . $output); // 2^128 possibilities
$output = md5($input . $output); // 2^128 possibilities
$output = md5($input . $output); // 2^128 possibilities
Notez que les itérations suivantes ne sont pas 2 ^ 128 pour chaque valeur individuelle pour $input
. Cela signifie que nous pourrons peut-être générer des valeurs $input
Qui se heurteront toujours le long de la ligne (et résoudront donc ou résonneront à beaucoup moins que 2^128
Sorties possibles). Mais le cas général de $input
Est toujours aussi fort qu’il ne l’était pour un tour.
Attends, c'était ça? Testons ceci avec notre fonction ourHash()
. Passage en $hash = ourHash($input . $hash);
, pour 100 itérations:
Hashing 0 => 201
Hashing 1 => 212
Hashing 2 => 199
Hashing 3 => 201
Hashing 4 => 203
Hashing 5 => 205
Hashing 6 => 207
Hashing 7 => 209
Hashing 8 => 211
Hashing 9 => 204
Hashing 10 => 251
Hashing 11 => 147
Hashing 12 => 251
Hashing 13 => 148
Hashing 14 => 253
Hashing 15 => 0
Hashing 16 => 1
Hashing 17 => 2
Hashing 18 => 161
Hashing 19 => 163
Hashing 20 => 147
Hashing 21 => 251
Hashing 22 => 148
Hashing 23 => 253
Hashing 24 => 0
Hashing 25 => 1
Hashing 26 => 2
Hashing 27 => 161
Hashing 28 => 163
Hashing 29 => 8
Hashing 30 => 251
Hashing 31 => 148
Hashing 32 => 253
Hashing 33 => 0
Hashing 34 => 1
Hashing 35 => 2
Hashing 36 => 161
Hashing 37 => 163
Hashing 38 => 8
Hashing 39 => 4
Hashing 40 => 148
Hashing 41 => 253
Hashing 42 => 0
Hashing 43 => 1
Hashing 44 => 2
Hashing 45 => 161
Hashing 46 => 163
Hashing 47 => 8
Hashing 48 => 4
Hashing 49 => 9
Hashing 50 => 253
Hashing 51 => 0
Hashing 52 => 1
Hashing 53 => 2
Hashing 54 => 161
Hashing 55 => 163
Hashing 56 => 8
Hashing 57 => 4
Hashing 58 => 9
Hashing 59 => 11
Hashing 60 => 0
Hashing 61 => 1
Hashing 62 => 2
Hashing 63 => 161
Hashing 64 => 163
Hashing 65 => 8
Hashing 66 => 4
Hashing 67 => 9
Hashing 68 => 11
Hashing 69 => 4
Hashing 70 => 1
Hashing 71 => 2
Hashing 72 => 161
Hashing 73 => 163
Hashing 74 => 8
Hashing 75 => 4
Hashing 76 => 9
Hashing 77 => 11
Hashing 78 => 4
Hashing 79 => 3
Hashing 80 => 2
Hashing 81 => 161
Hashing 82 => 163
Hashing 83 => 8
Hashing 84 => 4
Hashing 85 => 9
Hashing 86 => 11
Hashing 87 => 4
Hashing 88 => 3
Hashing 89 => 17
Hashing 90 => 161
Hashing 91 => 163
Hashing 92 => 8
Hashing 93 => 4
Hashing 94 => 9
Hashing 95 => 11
Hashing 96 => 4
Hashing 97 => 3
Hashing 98 => 17
Hashing 99 => 13
Hashing 100 => 246
Hashing 101 => 248
Hashing 102 => 49
Hashing 103 => 44
Hashing 104 => 255
Hashing 105 => 198
Hashing 106 => 43
Hashing 107 => 51
Hashing 108 => 202
Hashing 109 => 2
Hashing 110 => 248
Hashing 111 => 49
Hashing 112 => 44
Hashing 113 => 255
Hashing 114 => 198
Hashing 115 => 43
Hashing 116 => 51
Hashing 117 => 202
Hashing 118 => 2
Hashing 119 => 51
Hashing 120 => 49
Hashing 121 => 44
Hashing 122 => 255
Hashing 123 => 198
Hashing 124 => 43
Hashing 125 => 51
Hashing 126 => 202
Hashing 127 => 2
Hashing 128 => 51
Hashing 129 => 53
Hashing 130 => 44
Hashing 131 => 255
Hashing 132 => 198
Hashing 133 => 43
Hashing 134 => 51
Hashing 135 => 202
Hashing 136 => 2
Hashing 137 => 51
Hashing 138 => 53
Hashing 139 => 55
Hashing 140 => 255
Hashing 141 => 198
Hashing 142 => 43
Hashing 143 => 51
Hashing 144 => 202
Hashing 145 => 2
Hashing 146 => 51
Hashing 147 => 53
Hashing 148 => 55
Hashing 149 => 58
Hashing 150 => 198
Hashing 151 => 43
Hashing 152 => 51
Hashing 153 => 202
Hashing 154 => 2
Hashing 155 => 51
Hashing 156 => 53
Hashing 157 => 55
Hashing 158 => 58
Hashing 159 => 0
Hashing 160 => 43
Hashing 161 => 51
Hashing 162 => 202
Hashing 163 => 2
Hashing 164 => 51
Hashing 165 => 53
Hashing 166 => 55
Hashing 167 => 58
Hashing 168 => 0
Hashing 169 => 209
Hashing 170 => 51
Hashing 171 => 202
Hashing 172 => 2
Hashing 173 => 51
Hashing 174 => 53
Hashing 175 => 55
Hashing 176 => 58
Hashing 177 => 0
Hashing 178 => 209
Hashing 179 => 216
Hashing 180 => 202
Hashing 181 => 2
Hashing 182 => 51
Hashing 183 => 53
Hashing 184 => 55
Hashing 185 => 58
Hashing 186 => 0
Hashing 187 => 209
Hashing 188 => 216
Hashing 189 => 219
Hashing 190 => 2
Hashing 191 => 51
Hashing 192 => 53
Hashing 193 => 55
Hashing 194 => 58
Hashing 195 => 0
Hashing 196 => 209
Hashing 197 => 216
Hashing 198 => 219
Hashing 199 => 220
Hashing 200 => 248
Hashing 201 => 49
Hashing 202 => 44
Hashing 203 => 255
Hashing 204 => 198
Hashing 205 => 43
Hashing 206 => 51
Hashing 207 => 202
Hashing 208 => 2
Hashing 209 => 51
Hashing 210 => 49
Hashing 211 => 44
Hashing 212 => 255
Hashing 213 => 198
Hashing 214 => 43
Hashing 215 => 51
Hashing 216 => 202
Hashing 217 => 2
Hashing 218 => 51
Hashing 219 => 53
Hashing 220 => 44
Hashing 221 => 255
Hashing 222 => 198
Hashing 223 => 43
Hashing 224 => 51
Hashing 225 => 202
Hashing 226 => 2
Hashing 227 => 51
Hashing 228 => 53
Hashing 229 => 55
Hashing 230 => 255
Hashing 231 => 198
Hashing 232 => 43
Hashing 233 => 51
Hashing 234 => 202
Hashing 235 => 2
Hashing 236 => 51
Hashing 237 => 53
Hashing 238 => 55
Hashing 239 => 58
Hashing 240 => 198
Hashing 241 => 43
Hashing 242 => 51
Hashing 243 => 202
Hashing 244 => 2
Hashing 245 => 51
Hashing 246 => 53
Hashing 247 => 55
Hashing 248 => 58
Hashing 249 => 0
Hashing 250 => 43
Hashing 251 => 51
Hashing 252 => 202
Hashing 253 => 2
Hashing 254 => 51
Hashing 255 => 53
Il y a toujours un motif approximatif, mais notez que ce n'est pas un motif = plus que notre fonction sous-jacente (qui était déjà assez faible).
Notez cependant que 0
Et 3
Sont devenus des collisions, même s’ils n’étaient pas en une seule fois. C’est une application de ce que j’ai dit précédemment (la résistance aux collisions reste la même pour l’ensemble des entrées, mais des routes de collision spécifiques peuvent s’ouvrir en raison de défauts dans l’algorithme sous-jacent).
En réinjectant les informations dans chaque itération, nous éliminons efficacement les collisions pouvant avoir eu lieu lors de l'itération précédente.
Par conséquent, md5($input . md5($input));
devrait être ( théoriquement au moins) aussi fort que md5($input)
.
Oui. C'est l'une des raisons pour lesquelles PBKDF2 a remplacé PBKDF1 dans RFC 2898 . Considérez les boucles intérieures des deux:
PBKDF1:
T_1 = Hash (P || S) ,
T_2 = Hash (T_1) ,
...
T_c = Hash (T_{c-1})
Où c
est le nombre d'itérations, P
est le mot de passe et S
est le sel
PBKDF2:
U_1 = PRF (P, S || INT (i)) ,
U_2 = PRF (P, U_1) ,
...
U_c = PRF (P, U_{c-1})
Où PRF est vraiment juste un HMAC. Mais pour nos besoins ici, disons simplement que PRF(P, S) = Hash(P || S)
(c'est-à-dire que le PRF à 2 entrées est identique, en gros, au hash avec les deux concaténés ensemble). C'est très bien pas , mais pour nos besoins, c'est le cas.
Ainsi, PBKDF2 conserve la résistance à la collision de la fonction sous-jacente Hash
, contrairement à PBKDF1.
Nous connaissons des moyens sécurisés d'itérer un hachage. En réalité:
$hash = $input;
$i = 10000;
do {
$hash = hash($input . $hash);
} while ($i-- > 0);
Est généralement en sécurité.
Maintenant, pour entrer dans pourquoi nous voudrions le hacher, analysons le mouvement d'entropie.
Un hachage prend dans l'ensemble infini: S(∞)
et produit un ensemble plus petit et de taille uniforme S(n)
. L'itération suivante (en supposant que l'entrée soit renvoyée) mappe S(∞)
sur S(n)
à nouveau:
S(∞) -> S(n)
S(∞) -> S(n)
S(∞) -> S(n)
S(∞) -> S(n)
S(∞) -> S(n)
S(∞) -> S(n)
Notez que la sortie finale a exactement la même quantité d'entropie que la première . Itérer pas "le rendre plus obscurci". L'entropie est identique. Il n'y a pas de source magique d'imprévisibilité (c'est une fonction pseudo-aléatoire, pas une fonction aléatoire).
Il y a cependant un avantage à itérer. Cela ralentit artificiellement le processus de hachage. Et c'est pourquoi itérer peut être une bonne idée. En fait, il s’agit du principe de base de la plupart des algorithmes de hachage de mots de passe modernes (le fait de faire basculer les choses plus lentement les ralentit).
Lent c'est bon, parce qu'il combat la principale menace à la sécurité: le forçage brutal. Plus notre algorithme de hachage est lent, plus les attaquants doivent s’efforcer d’attaquer les hachages de mots de passe qui nous ont été volés. Et c'est une bonne chose !!!
Oui, le re-hachage réduit l'espace de recherche, mais non, cela n'a pas d'importance - la réduction effective est insignifiante.
Le re-hachage augmente le temps nécessaire à la force brute, mais ne le faire que deux fois est également sous-optimal.
Ce que vous voulez vraiment, c'est hacher le mot de passe avec PBKDF2 - une méthode éprouvée d'utilisation d'un hachage sécurisé avec du sel et des itérations. Départ this SO réponse .
MODIFIER: J'ai presque oublié - N'UTILISEZ PAS MD5 !!!! Utilisez un hachage cryptographique moderne tel que la famille SHA-2 (SHA-256, SHA-384 et SHA-512).
Oui, cela réduit le nombre de chaînes pouvant éventuellement correspondre à la chaîne.
Comme vous l'avez déjà mentionné, les hachis salés sont bien meilleurs.
Un article ici: http://websecurity.ro/blog/2007/11/02/md5md5-vs-md5/ , tente de prouver pourquoi c'est équivalent, mais je ne suis pas sûr de la logique. Ils supposent en partie qu’il n’existe pas de logiciel permettant d’analyser md5 (md5 (text)), mais il est évidemment relativement simple de produire les tables Rainbow.
Je persiste toujours dans ma réponse: il existe un nombre plus petit de hachages de type md5 (md5 (texte)) que de hachages md5 (texte), ce qui augmente les risques de collision (même si la probabilité reste improbable) et réduit l'espace de recherche.
Je viens de regarder cela d'un point de vue pratique. Quel est le pirate après? Pourquoi, la combinaison de caractères qui, une fois mis dans la fonction de hachage, génère le hachage souhaité.
Vous ne sauvegardez que le dernier hachage, par conséquent, le pirate informatique n'a plus qu'à forcer brutalement un hachage. En supposant que vous ayez à peu près les mêmes chances de trébucher sur le hachage souhaité à chaque étape de la force brute, le nombre de hachages est sans importance. Vous pourriez faire un million d'itérations de hachage, et cela n'augmenterait ni ne réduirait la sécurité, car au bout de la ligne, il ne reste qu'un hachage à rompre, et les chances de le casser sont les mêmes que celles de n'importe quel hachage.
Peut-être que les affiches précédentes pensent que la contribution est pertinente; ce n'est pas. Tant que ce que vous mettez dans la fonction de hachage génère le hachage souhaité, cela vous permettra de passer à travers, une entrée correcte ou une entrée incorrecte.
Maintenant, les tables Rainbow sont une autre histoire. Dans la mesure où une table Rainbow ne contient que des mots de passe bruts, le hachage deux fois peut être une bonne mesure de sécurité, puisqu'un tableau Rainbow contenant chaque hachage de chaque hachage serait trop volumineux.
Bien sûr, je ne considère que l'exemple donné par l'OP, qui consiste en un hachage du mot de passe en texte brut. Si vous incluez le nom d'utilisateur ou un sel dans le hachage, c'est une autre histoire. hachage deux fois est totalement inutile, car la table Rainbow serait déjà trop grande pour être pratique et contenir le hachage correct.
Quoi qu’il en soit, ce n’est pas un expert en sécurité, mais c’est exactement ce que j’ai compris de mon expérience.
La plupart des réponses proviennent de personnes sans expérience en cryptographie ou en sécurité. Et ils ont tort. Utilisez un sel, si possible unique par enregistrement. MD5/SHA/etc sont trop rapides, le contraire de ce que vous voulez. PBKDF2 et bcrypt sont plus lents (ce qui est bien) mais peuvent être vaincus avec des ASIC/FPGA/GPU (très abordables de nos jours). Donc, un algorithme mémoire-dur est nécessaire: entrez scrypt .
Voici une explication profane sur les sels et la vitesse (mais pas sur les algorithmes difficiles à mémoriser).
D'après ce que j'ai lu, il peut être recommandé de re-hacher le mot de passe des centaines, voire des milliers de fois.
L'idée est que si vous pouvez faire en sorte que l'encodage du mot de passe prenne plus de temps, il sera plus difficile pour un attaquant d'exécuter de nombreuses suppositions pour déchiffrer le mot de passe. Cela semble être l’avantage de refaire le hachage - non pas que cela soit plus sûr sur le plan cryptographique, mais il faut simplement plus de temps pour générer une attaque par dictionnaire.
Bien sûr, les ordinateurs deviennent de plus en plus rapides, donc cet avantage diminue avec le temps (ou vous oblige à augmenter le nombre d'itérations).
Personnellement, je ne m'embêterais pas avec plusieurs hashses, mais je m'assurerais que hachez également le nom d'utilisateur (ou un autre champ d'ID utilisateur) ainsi que le mot de passe pour que deux utilisateurs avec le même mot de passe ne le fassent pas. se retrouver avec le même hash. De plus, je jetterais probablement une autre chaîne constante dans la chaîne d'entrée pour une bonne mesure.
$hashed_password = md5( "xxx" + "|" + user_name + "|" + plaintext_password);
Supposons que vous utilisiez l'algorithme de hachage: calcul Rot13, prenez les 10 premiers caractères. Si vous faites cela deux fois (voire 2000 fois), il est possible de créer une fonction plus rapide, mais donnant le même résultat (à savoir, prenez simplement les 10 premiers caractères).
De même, il peut être possible de créer une fonction plus rapide donnant le même résultat qu'une fonction de hachage répétée. Votre choix de la fonction de hachage est donc très important: comme dans le cas de rot13, il n’est pas acquis que des hachages répétés améliorent la sécurité. Si aucune recherche n’indique que l’algorithme est conçu pour une utilisation récursive, il est alors plus prudent de supposer qu’il ne vous apportera pas une protection supplémentaire.
Cela dit: pour les fonctions de hachage les plus simples, il est très probable que des experts en cryptographie calculent les fonctions les plus rapides. Par conséquent, si vous vous protégez contre des attaquants qui n'ont pas accès à des experts en cryptographie, il est probablement plus sûr d'utiliser une fonction de hachage répétée. .
Comme le suggèrent plusieurs réponses dans cet article, il existe des cas dans lesquels cela peut améliorer la sécurité et d'autres dans lesquels cela nuit définitivement. Il existe une meilleure solution qui va certainement améliorer la sécurité. Au lieu de doubler le nombre de fois que vous calculez le hachage, doublez la taille de votre sel ou doublez le nombre de bits utilisés dans le hachage, ou faites les deux! Au lieu de SHA-245, passez à SHA-512.
En général, il ne fournit aucune sécurité supplémentaire pour double hachage ou double chiffrement. Si vous pouvez casser le hash une fois, vous pouvez le casser à nouveau. Cela ne nuit généralement pas à la sécurité.
Dans votre exemple d'utilisation de MD5, comme vous le savez probablement, il existe des problèmes de collision. Le "double hachage" ne protège pas vraiment contre cela, car les mêmes collisions donneront toujours le même premier hash, que vous pourrez ensuite rediffuser pour MD5.
Cela protège contre les attaques par dictionnaire, comme celles des "bases de données inversées MD5", mais le salage également.
Sur une tangente, le double chiffrement n'apporte aucune sécurité supplémentaire, car il en résulte une clé différente qui est une combinaison des deux clés réellement utilisées. Ainsi, l’effort de recherche de la "clé" n’est pas doublé car il n’est pas nécessaire de trouver deux clés. Ce n'est pas vrai pour le hachage, car le résultat du hachage n'a généralement pas la même longueur que l'entrée d'origine.
Le double hachage n'a de sens pour moi que si je hache le mot de passe sur le client, puis enregistre le hachage (avec un sel différent) de ce hachage sur le serveur.
Ainsi, même si quelqu'un se frayait un chemin dans le serveur (ignorant ainsi la sécurité fournie par SSL), il ne pouvait toujours pas obtenir les mots de passe clairs.
Oui, il disposera des données nécessaires pour pénétrer dans le système, mais il ne pourrait pas les utiliser pour compromettre les comptes extérieurs de l'utilisateur. Et les gens sont connus pour utiliser le même mot de passe pour pratiquement n'importe quoi.
La seule façon pour lui de trouver les mots de passe clairs est d'installer un keygen sur le client - et ce n'est plus votre problème.
Donc en bref:
La préoccupation concernant la réduction de l’espace de recherche est mathématiquement correcte, bien que l’espace de recherche reste suffisamment grand pour que, à toutes fins utiles (en supposant que vous utilisiez des sels), à 2 ^ 128. Cependant, étant donné que nous parlons de mots de passe, le nombre de chaînes possibles de 16 caractères (alphanumériques, majuscules, quelques symboles projetés) est d’environ 2 ^ 98, d’après mes calculs ultérieurs. La diminution perçue dans l’espace de recherche n’est donc pas vraiment pertinente.
En dehors de cela, il n'y a vraiment pas de différence, cryptographiquement parlant.
Bien qu'il existe une primitive de chiffrement appelée "chaîne de hachage" - une technique qui vous permet de réaliser quelques astuces intéressantes, comme de révéler une clé de signature après son utilisation, sans sacrifier l'intégrité du système - avec une synchronisation temporelle minimale, cette vous permet d’éviter proprement le problème de la distribution initiale des clés. Fondamentalement, vous calculez un grand ensemble de hachages de hachages - h(h(h(h....(h(k))...))), utilisez la nième valeur pour signez, après un intervalle défini, vous envoyez la clé et signez-la à l'aide de la touche (n-1). Les destinataires peuvent maintenant vérifier que vous avez envoyé tous les messages précédents, et personne ne peut simuler votre signature depuis la période pour laquelle c'est valide a passé.
Re-hacher des centaines de milliers de fois, comme le suggère Bill, n’est qu’un gaspillage de votre unité centrale. Utilisez une clé plus longue si vous craignez que des personnes cassent 128 bits.