Cette question concerne le nombre de bits requis pour stocker une plage. Ou, autrement dit, pour un nombre donné de bits, quelle est la plage maximale pouvant être stockée et comment?
Imaginez que nous voulons stocker une sous-plage dans la plage 0-255.
Ainsi, par exemple, 45-74.
Nous pouvons stocker l'exemple ci-dessus sous la forme de deux octets non signés, mais il me semble qu'il doit y avoir une certaine redondance d'informations. Nous savons que la deuxième valeur est plus grande que la première, donc dans le cas où la première valeur est grande, moins de bits sont nécessaires pour la deuxième valeur, et dans le cas où la deuxième valeur est grande, moins de bits sont requis pour la première .
Je soupçonne que toute technique de compression donnerait un résultat marginal, il serait donc préférable de demander "quelle est la plage maximale pouvant être stockée dans un octet?". Cela devrait être plus grand que ce qui est réalisable en stockant les deux nombres séparément.
Existe-t-il des algorithmes standard pour faire ce genre de choses?
Il suffit de compter le nombre de plages possibles. Il y a 256 plages avec borne inférieure 0 (0-0, 0-1, ... 0-254, 0-255), 255 plages avec borne inférieure 1, ... et enfin 1 plage avec borne inférieure 255 (255- 255). Le nombre total est donc (256 + 255 + ... + 1) = 257 * 128 = 32 896. Comme cela est légèrement supérieur à 215 = 32 768, vous aurez toujours besoin d'au moins 16 bits (2 octets) pour stocker ces informations.
En général, pour les nombres de 0 à n-1, le nombre de plages possibles est n * (n + 1)/2. C'est moins de 256 si n est 22 ou moins: n = 22 donne 22 * 23/2 = 253 possibilités. Donc n octet suffit pour les sous-plages de -21.
Une autre façon d'examiner le problème est la suivante: le stockage d'une paire d'entiers compris entre 0 et n-1 équivaut presque au stockage d'une sous-plage de 0n-1) plus un --- (bit unique = qui détermine si le premier nombre est inférieur ou supérieur au second. (La différence vient du cas où les deux entiers sont égaux, mais cette chance devient de plus en plus petite à mesure que n grandit.) C'est pourquoi vous ne pouvez enregistrer qu'un seul bit avec cette technique, et probablement la principale raison pour laquelle elle est rarement utilisée.
Pour un si petit nombre de bits, il est impossible d'enregistrer de nombreux bits sous la forme Glorfindel l'a souligné . Cependant, si le domaine que vous utilisez a quelques bits de plus, vous pouvez réaliser des économies significatives pour le cas moyen en encodant des plages avec la valeur de départ et un delta.
Supposons que le domaine soit les entiers, donc 32 bits. Avec l'approche naïve, vous avez besoin de 64 bits (début, fin) pour stocker une plage.
Si nous passons à un codage de (début, delta), nous pouvons construire la fin de la plage à partir de cela. Nous savons que dans le pire des cas, le début est 0 et le delta a 32 bits.
2 ^ 5 est 32, donc nous codons la longueur du delta en cinq bits (pas de longueur nulle, ajoutez toujours 1), et l'encodage devient (début, longueur, delta). Dans le pire des cas, cela coûte 32 * 2 + 5 bits, donc 69 bits. Donc dans le pire des cas, si toutes les plages sont longues, c'est pire que l'encodage naïf.
Dans le meilleur des cas, cela coûte 32 + 5 + 1 = 38 bits.
Cela signifie que si vous devez encoder un grand nombre de plages, et que ces plages ne couvrent chacune qu'une petite partie de votre domaine, vous finissez par utiliser moins d'espace en moyenne en utilisant cet encodage. Peu importe la façon dont les départs sont distribués, car le début prendra toujours 32 bits, mais la façon dont les longueurs des plages sont distribuées importe. Si plus vous avez de petites longueurs, meilleure est la compression, plus vous avez de plages couvrant toute la longueur du domaine, pire sera l'encodage.
Cependant, si vous avez beaucoup de plages regroupées autour de points de départ similaires, (par exemple parce que vous obtenez des valeurs d'un capteur), vous pouvez réaliser des économies encore plus importantes . Vous pouvez appliquer la même technique à la valeur de départ et utiliser un biais pour compenser la valeur de départ.
Disons que vous avez 10000 plages. Les plages sont regroupées autour d'une certaine valeur. Vous encodez le biais avec 32 bits.
En utilisant l'approche naïve, vous auriez besoin de 32 * 2 * 10 000 = 640 000 bits pour stocker toutes ces plages.
Le codage de la polarisation prend 32 bits, et le codage de chaque plage prend alors dans le meilleur des cas 5 + 1 + 5 + 1 = 12 bits, pour un total de 120 000 + 32 = 120 032 bits. Dans le pire des cas, vous avez besoin de 5 + 32 + 5 + 32 bits, donc 74 bits, pour un total de 740 032 bits.
Cela signifie que, pour 10 000 valeurs sur un domaine qui prend 32 bits à coder, nous obtenons
Si vous prenez l'encodage naïf comme référence, cela signifie soit des économies allant jusqu'à 81,25% ou jusqu'à 15,625% de coûts supplémentaires.
Selon la façon dont vos valeurs sont réparties, ces économies sont importantes. Connaissez votre domaine d'activité! Sachez ce que vous voulez encoder.
En tant qu'extension, vous pouvez également modifier le biais. Si vous analysez les données et identifiez des groupes de valeurs, vous pouvez trier les données dans des compartiments et encoder chacun de ces compartiments séparément, avec son propre biais. Cela signifie que vous pouvez appliquer cette technique non seulement aux plages regroupées autour d'une seule valeur de départ, mais également aux plages regroupées autour de plusieurs valeurs.
Si vos points de départ sont répartis également, cet encodage ne fonctionne pas vraiment bien.
Cet encodage est évidemment extrêmement mauvais à indexer. Vous ne pouvez pas simplement lire la valeur x-ème. Il ne peut quasiment être lu que séquentiellement. Ce qui est approprié dans certaines situations, par exemple streaming sur le réseau ou stockage en vrac (par exemple sur bande ou disque dur).
Évaluer les données, les regrouper et choisir le biais correct peut être un travail considérable et peut nécessiter un réglage fin pour des résultats optimaux.
Ce type de problème fait l’objet de l’article fondateur de Claude Shannon, A Mathematical Theory of Communication , qui a introduit le mot "bit" et a plus ou moins inventé la compression de données.
L'idée générale est que le nombre de bits utilisés pour coder une plage est inversement proportionnel à la probabilité que cette plage se produise. Par exemple, supposons que la plage 45-74 apparaisse environ 1/4 du temps. Vous pouvez dire que la séquence 00 correspond à 45-74. Pour encoder la plage 45-74, vous sortez "00" et vous vous arrêtez là.
Supposons également que les plages 99-100 et 140-155 apparaissent chacune environ 1/8 du temps. Vous pouvez encoder chacun d'eux avec une séquence de 3 bits. Les 3 bits feront l'affaire tant qu'ils ne commencent pas par "00", qui a déjà été réservé pour la plage 45-74.
00: 45-74
010: 99-100
101: 140-155
Vous pouvez continuer de cette manière jusqu'à ce que chaque plage possible ait un encodage. La plage la moins probable peut nécessiter plus de 100 bits. Mais ça va car ça apparaît rarement.
Il y a sont algorithmes pour trouver le codage optimal. Je n'essaierai pas de les expliquer ici, mais vous pouvez trouver plus en visitant le lien ci-dessus ou en recherchant "Théorie de l'information", "Codage de Shannon-fano" ou "Codage de Huffman".
Comme d'autres l'ont souligné, il est probablement préférable de stocker le numéro de début et la différence entre le numéro de début et le numéro de fin. Vous devriez utiliser un codage pour le début et un autre pour la différence, car ils ont des distributions de probabilité différentes (et je suppose que cette dernière est plus redondante). Comme l'a suggéré polygnome, le meilleur algorithme dépend de votre domaine.
Pour développer la réponse de @Glorfindel:
Comme n → ∞, (n - 1) → n. Ainsi, Ω (plages) → n²/2 et log (Ω (plages)) → (2n - 1). Comme le codage naïf prend 2n bits, la compression maximale asymptotique n'enregistre que 1 bit.
Il existe une réponse similaire, mais pour obtenir une compression optimale, vous avez besoin de:
Plus important encore, le numéro 2 signifie que vous voulez encoder les choses de manière à ce que les valeurs les plus informatives (par bit encodé) viennent en premier. Par exemple, alors que j'ai suggéré de coder une liste triée "telle quelle", il serait généralement plus intelligent de la coder comme un "arbre binaire" - c'est-à-dire si elles sont triées par largeur et que vous avez len
éléments, commencez par coder l'élément len/2
. Disons qu'il avait une largeur w. Maintenant, vous connaissez tous les éléments avant qu'il ait une largeur quelque part dans [0, w], et tous les éléments après qu'il ait une largeur quelque part dans [w, val max que vous acceptez]. Répétez de manière récursive (en divisant à nouveau chaque demi-liste en deux, etc.) jusqu'à ce que vous ayez couvert les éléments len
(à moins qu'il ne soit fixe, vous voudrez d'abord coder len
pour ne pas avoir à la peine de terminer les jetons). Si "max val you accept" est vraiment ouvert, il peut être judicieux de coder d'abord la valeur la plus élevée qui apparaît réellement dans vos données, c'est-à-dire le dernier élément, puis puis faire le partitionnement binaire. Encore une fois, tout ce qui est le plus informatif par bit en premier.
De plus, si vous codez d'abord la largeur de l'intervalle et que vous connaissez la valeur maximale possible à laquelle vous avez affaire, vous pouvez évidemment exclure toutes les valeurs de départ qui le feraient déborder ... vous avez l'idée. Transformez et ordonnez vos données de manière à pouvoir déduire autant que possible le reste des données au fur et à mesure que vous les décodez, et un algorithme de codage entropique optimal vous assurera de ne pas gaspiller des informations de codage de bits que vous "connaissez déjà". .