J'envisage d'utiliser module de restrictions IP dynamiques IIS afin de rendre les attaques par déni de service difficiles. Mais je ne suis pas sûr de savoir comment cela fonctionnerait pour les robots des moteurs de recherche comme Googlebot.
Une idée?
Dans les commentaires, il a été mentionné que cela pourrait être fait en inscrivant en liste blanche l'agent utilisateur de Google. C'est une mauvaise idée: beaucoup de robots peuvent se faire passer pour que vous puissiez faire votre site.
En regardant le liste des fonctionnalités de ce script, il semble qu'il utilise deux critères pour déterminer s'il s'agit d'une attaque dos:
- Le nombre de demandes simultanées.
- Le nombre de demandes sur une période donnée.
Pour Google, vous pouvez facilement limiter ces deux éléments au-dessous du seuil utilisé par le script en définissant un taux d'analyse personnalisé dans les outils pour les webmasters de Google . Cela signifie que Google n'analysera pas votre site aussi souvent, mais ne surchargera pas votre serveur.
Je ne sais pas ce que vous pourriez faire avec les autres moteurs de recherche, outre le fait de vous assurer que les seuils de votre script sont supérieurs aux vitesses d'analyse qu'ils utilisent.