web-dev-qa-db-fra.com

Comment la géographie affecte-t-elle la latence du réseau?

J'ai la possibilité d'organiser notre base de données/serveur Web dans une société d'hébergement gérée sur la côte est (US) ou une sur la côte ouest (US). Notre société est basée sur la ville de New York et les deux fournisseurs d'hébergement donnent à notre boîte une ligne T1 dédiée.

Dans quelle mesure une performance frappe (en supposant que tous les autres facteurs sont égaux) serais-je en termes de latence de réseau si je suis allé avec celle de la côte ouest par opposition à celle de la côte est? Je ne sais pas trop comment la géographie affecte les vitesses Internet lorsque les chiffres et les distances deviennent vraiment volumineux (T1 et plus, et des milliers de kilomètres).

Merci!

20
neezer

Il y a un délai de distance et toutes les autres choses étant égales (efficacité de routage, traitement des frais généraux, congestion, etc.) Un site sur la côte ouest accessible par un hôte sur la côte est va prendre plus de temps que si ce site est à l'est Côte mais nous parlons de millisecondes ici.

10
joeqwerty

Toutes les autres choses égales, vous aurez 44 millisecondes supplémentaires juste à cause de la vitesse de la lumière. Donnez ou prenez 1/20 de seconde pour chaque paquet aller-retour. Pas grand chose pour une utilisation web typique. Passable pour les séances SSH. Substantiel si vous accédez directement à votre dB avec beaucoup de petites transactions consécutives.

J'ai ignoré une latence supplémentaire causée par des routeurs/répéteurs supplémentaires, ce qui pourrait être beaucoup plus élevé. J'ai supposé la distance 4400 km et la vitesse de la lumière dans Fibre 200000 km/s.

11
kubanczyk

Nous avons eu un client que nous avons passé un peu de temps juste et autour de ce sujet. Ils ont été organisés à l'origine à New York et leur personnel est principalement situé dans la région de Boston. Ils déplaçaient leurs serveurs dans notre installation située à Denver, environ les deux tiers du chemin à travers le pays.

Une fois qu'ils avaient déménagé, ils ont commencé à mener des problèmes de performance de leurs liens COMCAST dans les bureaux domestiques. Ils avaient l'habitude d'avoir <10 ms de latence, et il est allé jusqu'à 80 ISH MS. Ils ont remarqué des performances plus lentes atteignant leurs sites, mais a déclaré: "Peut-être que nous allons devoir devoir supporter d'aller de la vitesse flolieuse à la simple vitesse mortelle." Ils semblaient se rendre compte qu'il y avait des limitations en raison de la géographie et que leurs utilisateurs de la côte ouest constitueraient potentiellement une meilleure performance.

Nous sommes retournés à quelques reprises. Après environ 6 mois, nous sommes passés à un ISP en amont primaire différent, pour des raisons non liées à ce client (meilleure tarification, plus de bande passante, mécontente du nombre de fenêtres de maintenance sur l'autre fournisseur), et avec le nouveau fournisseur que nous avions environ 45ms Latence moyenne pour ce client. À ce stade, leurs préoccupations de performance semblent avoir disparues.

Juste pour vous donner une expérience d'un cas où ce type de problème a été observé et que les chiffres y sont liés.

Essayez d'utiliser "MTR" pour afficher des informations sur la perte de latence et de paquets aux différentes extrémités distantes. Sauf si vous comprenez parfaitement le routage "SLOW PATH", ignorez tout sauf le dernier hop inscrit sur cette sortie. Van Jacobson affirme que les humains remarquent la latence à partir de 400 ms, mais se rendent compte que de nombreuses connexions nécessitent plusieurs échanges de retour en arrière et de 100 ms peuvent rapidement ajouter jusqu'à une seconde ...

De mon expérience, la latence de 250 ms commence à se sentir comme une connexion sensiblement lente. 10ms ou mieux se sent comme une connexion flamboyante. Cela dépend vraiment de ce que vous faites.

Sean

5
Sean Reifschneider

Eh bien, les paquets transportent le fil à la vitesse de la lumière de la lumière du temps de transmission brute sont négligeables par rapport à d'autres facteurs. Ce qui compte, c'est l'efficacité du routage et la manière dont les dispositifs de routage rapides peuvent effectuer le routage. Cela ne peut malheureusement pas être déterminé purement basé sur la distance géographique. Il existe une forte corrélation entre la distance et la latence, mais il n'y a pas de règle difficile et rapide que je suis au courant.

3
EBGreen

Le nombre de sauts entre le point A et le point B introduira la latence. Comptez le nombre de sauts car c'est votre meilleur indicateur.

Quelques mots de prudence. Les méthodes d'évaluation du chemin réseau ne sont pas compatibles avec la manière dont le paquet réel va couler. L'ICMP peut être acheminé et donné une différence de QoS. En outre, Traceroute regarde généralement dans une direction, c'est-à-dire une source à destination. Voici quelques astuces utiles.

Pour traceroute, essayez d'utiliser -I, -U ou -T Pour voir comment le chemin varie. Regardez également -t 16 ou -t 8. traceroute

Ping est en fait assez utile. ping -R vous montrera le chemin qu'il faut pour revenir! S'il diffère du chemin qui sort, alors voyez où ça se passe. ping

3
Noah Campbell

Je pense que la géographie aura beaucoup à voir avec le temps de transmission de paquets depuis la poursuite que vous allez, plus vous allez probablement ajouter une affectation de la latence globale. Si vos clients vont être basés principalement sur la côte ouest, j'irais pour l'hébergement de la côte ouest ... la même chose sur la côte est. Si vos clients viendront de partout sur les États-Unis ou le monde ... alors vous devrez simplement prendre la décision difficile de savoir quel côté obtient la moins de latence.

Dans notre cas, nous sommes sur notre propre réseau (un grand intranet) et sommes en mesure de laisser nos routeurs prendre des décisions fondées sur OSPF tout au long de l'état :) Malheureusement, tout ce que notre réseau s'appuie principalement sur notre mise en page des Isps.

2
l0c0b0x