Duplicate possible:
Comment limiter le téléchargement de tous les fichiers d'un dossier?
Je souhaite télécharger un fichier privé sans utiliser la protection du nom d'utilisateur/mot de passe. Je veux mettre le fichier dans un répertoire appelé quelque chose comme download
. Comment puis-je m'assurer:
Tout d’abord, vous pouvez ajouter une entrée appropriée robots.txt pour indiquer aux robots volontaires d’ignorer et de ne pas indexer votre répertoire spécifique.
Les bots devraient suivre vos intentions de robots.txt, mais certaines personnes (ou bots) les liront exprès pour savoir ce que vous voulez cacher.
Vous devrez donc vous assurer que votre serveur Web ne crée pas automatiquement un index de tous les fichiers de votre répertoire et ne crée pas de noms de fichiers difficiles à deviner. C'est la sécurité par l'obscurité et le mal.
Lors du retour du fichier, vous pouvez également envisager d'ajouter le relativement nouveau X-Robots-Tags en dernier recours et ajouter des directives telles que "noindex, noarchive". De cette façon, google bot même s'il trouve que le fichier ne doit pas être indexé ni mis en cache. Mais d'autres ne connaissant pas le tag le feront.
Par programme, vous pouvez également écrire du code qui renvoie le fichier à télécharger uniquement si le client accédant n’est pas un bot. Problème ici: La détection de bots est une histoire sans fin et pourrait être falsifiée - presque tout ce que l’en-tête HTTP peut fournir.
Peut-être pouvez-vous limiter l'accès par plages d'adresses IP en tant que mesure supplémentaire pour limiter le nombre de clients ayant un accès ou pour exclure les adresses IP bot connues (mais celles-ci changent souvent).