Est-ce que quelqu'un sait s'il y a une limite au nombre d'objets que je peux mettre dans un compartiment S3? puis-je mettre un million, 10 millions, etc. dans un seul seau?
Selon Amazon:
Écrivez, lisez et supprimez des objets contenant chacun entre 1 octet et 5 téraoctets de données. Le nombre d'objets que vous pouvez stocker est illimité.
Source: http://aws.Amazon.com/s3/details/ au 3 septembre 2015.
Il semble que la limite ait changé. Vous pouvez stocker 5 To pour un seul objet.
Le volume total de données et le nombre d'objets que vous pouvez stocker sont illimités. La taille des objets Amazon S3 peut varier de 1 octet à 5 téraoctets. Le plus gros objet pouvant être chargé dans un seul PUT est de 5 gigaoctets. Pour les objets de plus de 100 mégaoctets, les clients doivent envisager d'utiliser la fonctionnalité de téléchargement en plusieurs parties.
De docs,
Il n'y a pas de limite au nombre d'objets pouvant être stockés dans un fichier seau et pas de différence de performance si vous utilisez plusieurs seaux ou juste quelques uns. Vous pouvez stocker tous vos objets dans un seul compartiment, ou vous pouvez les organiser sur plusieurs seaux.
à partir d'août 2016
Bien que vous puissiez stocker un nombre illimité de fichiers/objets dans un seul compartiment, lorsque vous allez répertorier un "répertoire" dans un compartiment, seuls les 1 000 premiers fichiers/objets de ce compartiment sont affichés par défaut. Pour accéder à tous les fichiers d'un grand "répertoire" comme celui-ci, vous devez effectuer plusieurs appels à leur API.
"Vous pouvez stocker autant d'objets que vous le souhaitez dans un compartiment et écrire, Lire et supprimer des objets de votre compartiment. Les objets peuvent contenir jusqu'à 5 .__ téraoctets."
de http://aws.Amazon.com/s3/details/ (à partir du 4 mars 2015)
Le nombre d'objets que vous pouvez stocker dans votre compartiment S3 est illimité. AWS prétend qu'il dispose d'un stockage illimité. Cependant, il y a quelques limitations -
Cela dit, si vous avez vraiment beaucoup d'objets à stocker dans le compartiment S3, envisagez de randomiser votre préfixe de nom d'objet pour améliorer les performances.
Lorsque votre charge de travail est un mélange de types de demandes, introduisez un caractère aléatoire dans les noms de clé en ajoutant une chaîne de hachage comme préfixe au nom de la clé. En introduisant de manière aléatoire les noms de clé, la charge d’entrée/sortie sera répartie sur plusieurs partitions d’index. Par exemple, vous pouvez calculer un hachage MD5 de la séquence de caractères que vous souhaitez attribuer en tant que clé et ajouter 3 ou 4 caractères du hachage comme préfixe au nom de la clé.
Plus de détails - https://aws.Amazon.com/premiumsupport/knowledge-center/s3-bucket-performance-improve/
- à partir de juin 2018