J'ai un dell S23340M - A [~ # ~ ~] LCD [~ # ~] moniteur avec un rétro-éclairage à LED , qui a des options intégrées pour ajuster la luminosité et contraste. Le moniteur comporte une barre de "utilisation d'énergie" nifty qui change à mesure que vous augmentez/diminuez la luminosité. Lorsque j'augmente la luminosité, la barre d'énergie monte rapidement mais lorsque j'augmente le contraste, il reste la même chose (peu importe la hauteur, je fais le contraste).
À 100% de contraste, mon moniteur est pratiquement une lampe de poche géante, mais la barre d'énergie reste toujours la même. Je me demande si vous changez de contraste fait quelque chose à l'utilisation de l'énergie, même si l'écran du moniteur semble être visiblement plus lumineux? (Sinon, pourquoi pas?)
En fonction du type d'affichage (et d'ignorer OLED), je crois que le contraste fait très peu de différence pour la quantité d'énergie utilisée.
Lorsque vous parlez de luminosité, vous ajustez la source d'éclairage derrière l'écran - des LED lumineuses normalement élevées ou quelque chose d'équivalent. Ceux-ci peuvent dessiner une puissance significative.
Lorsque vous parlez de contraste, vous ajustez la quantité de lumière filtrée à travers les pixels qui constituent la partie avant de la LED. Ils utilisent certainement le pouvoir, mais pas autant que le rétroéclairage. N'oubliez pas que les yeux humains peuvent être trompeurs lors de la luminosité, car les élèves se dilatent naturellement pour compenser différentes quantités de lumière en fonction de l'heure de la journée.
Les écrans à base d'OLED sont différents - ils n'utilisent pas de rétroéclairage et s'appuient sur le pixel pour produire la quantité correcte de lumière - je sais qu'avec les téléphones cellulaires qui utilisent un OLED affichage, quelle est la noirceur Le fond est peut faire une différence significative à la longévité de la batterie.