Comment des sites comme Facebook et Twitter optimisent-ils leurs sites pour un trafic massif? En plus de dépenser beaucoup d'argent pour obtenir les meilleurs serveurs, qu'est-ce qui peut être optimisé dans votre code pour gérer un trafic important?
J'ai lu des informations sur la mise en cache de vos pages au format HTML statique, mais cela n'est pas pratique pour les sites de réseaux sociaux où les pages sont constamment mises à jour.
Les sites volumineux tels que Google, Facebook et Twitter n'obtiennent pas nécessairement les "meilleurs" serveurs, car ils ne gèrent pas un petit nombre de serveurs très puissants, mais un nombre considérable de serveurs plus petits et moins chers. Ils s'attendent à ce que le matériel meure et soit remplacé et le code le permet.
Quelques éléments typiques des sites à grande échelle:
http://highscalability.com/ est un excellent site pour en savoir plus à ce sujet.
Le déchargement du trafic de base de données via sharding est probablement l'un des meilleurs moyens de redimensionner un site à fort trafic.
Réduire le temps de chargement des pages en compressant les fichiers de ressources à l’aide de gzip et en combinant plusieurs fichiers de ressources en un seul afin de réduire le nombre de demandes que le navigateur doit faire est également une optimisation intéressante.
Je pensais mentionner HipHop pour PHP , ce qui transforme PHP en C++ et a été développé par Facebook . Facebook a travaillé sur APC aussi, je crois.