web-dev-qa-db-fra.com

Sécurité Web pour le site Web de l'enfant

Je suis en train de construire un site Wordpress pour un parent d'un enfant de 11 ans qui souhaitait commémorer les réalisations sportives, scolaires et personnelles de ses filles. Le site comprend des photos et des vidéos d'elle et de ses amis, des informations biographiques et des billets de blog. Le domaine est enregistré à titre privé au nom de mon entreprise. Je ne les ajoute pas à la console Google et je minimise les autres SEO. Il n'y a pas de noms de famille ou d'adresses physiques. Je veux avoir le maximum de sécurité Internet à l'esprit pour éviter que les utilisateurs ne se saisissent de ses photos, etc., des regards indiscrets, etc. Je suis probablement paranoïaque et, comme tous mes sites, pense qu'il pourrait y avoir plus de trafic que ce qu'il est réellement, mais je suppose que c'est Cela vaut la peine d’enquêter et d’être récompensé de mon i Le site Web de l'enfant est d'excellent goût et le parent est très terre-à-terre, elle comprend Internet, etc.

Existe-t-il des méthodes fiables que je peux prendre pour accroître la sécurité Web pour cette fillette de 11 ans et son site?

12
rhill45

Je suis probablement paranoïaque

Peut-être que je suis être paranoïaque, mais cela semble être un blog/site Web entièrement privé. c'est à dire. protégé par mot de passe. Qui est exactement le public cible?

Outre l'aspect sécurité (empêchant les sans scrupules de trouver et d'utiliser le contenu), ce type de contenu semble pouvoir faire l'objet d'intimidation de la part d'autres "amis" de l'école. Le contenu qui pourrait convenir au début - à un enfant de 11 ans - pourrait devenir embarrassant d’ici quelques années.

Je ne les ajoute pas à la console Google

Cela semblerait être en retard? Pour masquer le contenu de Google (c’est-à-dire un "bon" bot), vous devez utiliser la balise méta robots (ou l’en-tête X-Robots-Tag) et peut-être robots.txt. L'omettre de Google Search Console n'aidera pas à cet égard.

Au moins, si vous l'ajoutez à la console de recherche Google, vous pouvez surveiller des éléments tels que les backlinks, consulter le fichier robots.txt, etc. Si c'est le cas, vous devenez public.

20
MrWhite

La seule réponse appropriée est de protéger par mot de passe le tout. HTTP BASIC_AUTH est probablement le plus simple à configurer, car il n'interagira en aucune façon avec WordPress. Cela suffira à dissuader tous les racleurs, mais si vous souhaitez une sécurité adéquate, vous devez également utiliser HTTPS.

(Note: Avec de nombreux systèmes, une page HTTP sera redirigée vers HTTPS. Cependant, avec HTTP BASIC_AUTH, cette redirection peut être après l'invite pour votre mot de passe. La page HTTPS demandera alors à nouveau un mot de passe. signifie que votre mot de passe a été entré deux fois, une fois en texte clair et une autre sur un canal sécurisé Il est en principe possible d'avoir différent mots de passe pour les versions HTTP et HTTPS, ou de ne pas avoir de mot de passe pour HTTP version: il ne fait que rediriger vers la version HTTPS, qui vous demande ensuite votre mot de passe. La facilité de configuration dépend des outils que vous utilisez pour gérer les préférences d'hébergement de votre site Web. Vous pouvez également vous assurer de toujours naviguer - directement à la page HTTPS, en contournant la version non sécurisée. Si vous utilisez un système de mot de passe autre que HTTP BASIC_AUTH, aucune de ces notes ne s'appliquera probablement.)

6
TRiG

Tout d’abord, je tiens à excuser tous les webmasters professionnels, mais pour cette opération, j’ai une suggestion en or:

Violer les directives du moteur de recherche

Et je veux dire le faire au point que le contenu important est en javascript complexe et que le contenu que les robots peuvent explorer ne soit pas en HTML correct. Cela inclut une balise de description incorrecte, une balise de titre incorrecte, etc. Heck, transformez peut-être tout le contenu en une vidéo flash ou montrez le contenu entier sous la forme d'une seule image. Cela ferait vraiment grincer les dents du moteur de recherche.

Je vais montrer par exemple dans le code:

Voici un moyen d'obtenir quelque chose d'indexé:

<!DOCTYPE html>
<html>
<head>
<title>Web page</title>
<meta name="description" content="This is a wonderful web page">
</head>
<body>
<h1>A wonderful web page</h1>
<h2>By John Smith</h2>
<p>This is a wonderful page. ya de ya de ya de ya de ya de ya de</p>
<p>This is wonderful. ya de ya de ya de ya de ya de ya de</p>
</body>
</html>

Ok, je l'avoue, le texte n'est pas parfait, mais vous comprenez ce que je veux dire.

Maintenant, si vous voulez le cacher aux robots d'exploration et le faire de manière simple, vous pouvez essayer ceci:

<!DOCTYPE html>
<html>
<head>
<title>Private</title>
</head>
<body>
<img src="mywebsite.jpg" width=1024 height=768>
</body>
</html>

faites ensuite une image nommée mywebsite.jpg et incluez tout le texte dans cela, pas dans le HTML montré ci-dessus. Ensuite, vous devez protéger mywebsite.jpg en en faisant une version avec filigrane aux utilisateurs qui ne sont pas autorisés à voir la réalité. Comparez simplement les chaînes d'agent utilisateur ou les adresses IP à celles que vous autorisez/non pour l'image. Ce type de chose peut être fait dans .htaccess avec quelques règles de réécriture.

Par exemple, pour forcer googlebot à voir l’image en filigrane au lieu de la réalité, utilisez ces règles:

RewriteCond %{HTTP_USER_AGENT} ^googlebot$ [NC]
RewriteRule ^mywebsite.jpg$ specialrobotimage.jpg [L]

Je suppose ici que mywebsite.jpg est votre vrai site Web en tant qu’image et que specialrobotimage.jpg est un filigrane ou l’image sous forme de message indiquant que seuls les utilisateurs réels sont autorisés à voir les informations. En outre, les règles supposent que tout se trouve dans le même dossier.

3
Mike

Tout d’abord, c’est vraiment une question WP. J'ai écrit plus de 20 sites qui font ce dont vous avez besoin, c'est donc assez facile.

1 Vous connectez tout le monde pour voir chaque page.

2 Vous verrouillez le dossier de téléchargement via script et .htaccess. Il existe des scripts qui vérifient la connexion de l'utilisateur avant de lui permettre de visualiser le contenu multimédia.

Si vous voulez faire quelque chose entre cela et avoir votre site grand ouvert, c'est beaucoup de travail. La façon la plus simple de le faire est de disposer de deux dossiers de téléchargement: un avec sécurité et un pour tout le reste si vous souhaitez ouvrir certaines pages au grand public et d'autres non.

Quant à ce que les autres disent sur le contenu - vous ne pouvez pas le trouver si vos pages sont verrouillées ... ce n'est pas vraiment vrai. J'ai des scripts de robot qui vont chercher dans un dossier les noms de fichiers.

Tous les google et les robots parlent est un non-sens. Ce truc ne compte que si vous voulez vous en prendre à vous. Si vous le faites, prenez conseil auprès de certaines des questions mentionnées ci-dessus.

3
blankip