Si vous exécutez Xubuntu 12.04 sur un netbook (Lenovo S10), le processus lightdm
qui s'exécute en arrière-plan occupe constamment un précieux 12% du CPU. En outre, cela consomme une quantité considérable d’énergie et la durée de vie de la batterie n’est déjà pas très bonne.
Le processus auquel je fais référence est indiqué dans htop
par cette commande:
/usr/bin/X :0 -auth /var/run/lightdm/root/:0 -nolisten tcp vt7 -novtswitch -background none
Pourquoi ce processus est-il nécessaire? Est-il possible de réduire l'utilisation de son processeur?
/usr/bin/X :0 -auth /var/run/lightdm/root/:0...
Ce n'est pas lightdm, mais le serveur X qui est essentiel pour avoir une interface graphique sur n'importe quel Linux.
Il ne devrait pas utiliser constamment 12% du processeur, mais son utilisation devrait augmenter et diminuer en fonction de la quantité d '"activité" que vous effectuez sur votre bureau.
Pour essayer les options suggérées par @ drake01 eHow Link , vous devez créer un nouveau fichier dans /usr/share/X11/xorg.conf.d
. Par exemple:
Sudo nano /usr/share/X11/xorg.conf.d/99-mycputweaks.conf
Insérer:
Section "Screen" Option "RenderAccel" "True" Option "DisableGLXRootClipping" "True" Option "DamageEvents" "True" Option "UseEvents" "True" EndSection
Vous pouvez également essayer Jupiter , un applet de gestion de l’alimentation spécialement conçu pour les netbooks afin d’améliorer la durée de vie de votre batterie. (disponible auprès de PPA).
Vieux fil de discussion, je le sais, mais j’ai eu un grave problème d’utilisation élevée de la part de /usr/bin/X :0 -auth /var/run/lightdm/root/:0 -nolisten tcp vt7 -novtswitch -background none
qui entraînait des performances de bureau insupportables (sur un ordinateur de bureau). Aucune tentative pour résoudre ce problème n'a abouti (nouveau pilote vidéo, nouveau noyau, modification de xorg.conf, ... même une nouvelle installation)!
MAIS: La raison de l'utilisation élevée du processeur était que la carte réseau PCI et la carte vidéo utilisaient le même IRQ. Il y avait une ligne dans /var/log/syslog
qui disait "Désactivation de l'IRQ # 16". Après avoir vérifié /proc/interrupts
, j’ai constaté que nvidia
(carte vidéo) et eth0
(NIC) étaient sur la même interruption (dans mon cas, IRQ # 16).
Donc, ce que j'ai fait était juste de mettre ma carte réseau dans un autre slot PCI. Terminé.
Ce fil http://www.linuxquestions.org/questions/slackware-14/disabling-irq-16-a-879964/page3.html apporté la solution.
J'espère que ça aidera quelqu'un!
Le serveur X doit fonctionner sur le noyau Linux pour assurer la prise en charge de l'interface graphique, c'est-à-dire pour xfce sous xubuntu, gnome sous Ubuntu, kde sous kubuntu, etc. Il doit donc fonctionner tout le temps pendant que vous avez un gui en cours d'exécution. Personnellement, je n’ai jamais eu à faire face à la forte utilisation du processeur X sur les machines en fonctionnement, mais une recherche sur le Web renvoie le lien: http://www.ehow.com/how_7609862_reduce- cpu-usage-xorg.html Voir si ça aide.