La charge utile d'une page Web augmentera avec l'ajout du code nécessaire à la création de données structurées. Cela signifie que vous ne pourrez pas insérer autant de contenu réel dans les premiers 120k de la page.
Y a-t-il eu des discussions à ce sujet dans le passé et, dans l'affirmative, quelles sont les chances que cette limite soit augmentée pour permettre davantage de données?
Qu'est-ce qui vous fait penser que cela n'est pas déjà arrivé/n'arrive pas continuellement?
Je me souviens d'un point où il était recommandé aux pages de rester en dessous de ~ 40k au total . Avec une moyenne de pages récemment supérieure à 1,2 million ou plus, il serait insensé de penser que quoi que ce soit que le seuil soit ajusté périodiquement.
Le vrai "problème" que vous soulevez est qu'aucun moteur ne va probablement jamais publier un nombre spécifique. De toute façon, cela ne serait pas très utile, car ce nombre à lui seul ne dit pas grand-chose, sauf dans des cas très simples et spécifiques. Une grande page n'est pas forcément trop lourde, d'ailleurs.
Il est également probable - ceci est hypothétique, mais plausible - que le contenu "précoce" du document est beaucoup moins problématique que par le passé. Il existe des méthodes permettant de déterminer le contenu principal d'un document (pensez au fonctionnement d'Instapaper) qu'il serait trivial d'appliquer ici avec les ressources de Google.
Un nombre plus utile et intéressant est le chargement de la page ( time, qui vaut connu pour être un facteur de classement =. Encore une fois, notez que même un très petit morceau de Javascript peut ralentir le chargement de votre page si elle fait quelque chose de stupide.