web-dev-qa-db-fra.com

Le nœud de Pacemaker est impur (hors ligne)

Je suis la suivante : http://clusterlabs.org/doc/en-us/pacemaker/1.1-pcs/html/clustratters_from_scratch/_verify_corosync_installation.html Document de configuration d'un cluster 2 noeuds dans AWS. Les deux nœuds ont un stimulation installée et des règles FW sont activées. Lorsque j'exécute la commande d'état PCS sur les nœuds, je reçois le message que l'autre noeud est impur (hors ligne).

Les deux nœuds que j'ai installé sont ha1p et ha2p.

sortie sur ha1p

[root@ha1 log]# pcs status
Cluster name: mycluster
WARNING: no stonith devices and stonith-enabled is not false
Last updated: Wed Dec 24 21:30:44 2014
Last change: Wed Dec 24 21:27:44 2014
Stack: cman
Current DC: ha1p - partition with quorum
Version: 1.1.11-97629de
2 Nodes configured
0 Resources configured


Node ha2p: UNCLEAN (offline)
Online: [ ha1p ]

Full list of resources:

Sortie sur HA2P

[root@ha2 log]# pcs status
Cluster name: mycluster
WARNING: no stonith devices and stonith-enabled is not false
Last updated: Wed Dec 24 21:30:44 2014
Last change: Wed Dec 24 21:27:44 2014
Stack: cman
Current DC: ha2p - partition with quorum
Version: 1.1.11-97629de
2 Nodes configured
0 Resources configured


Node ha1p: UNCLEAN (offline)
Online: [ ha2p ]

Full list of resources:

Contenu de /etc/cluster/cluster.conf est comme ci-dessous:

[racine @ ha1 log] # chat /etc/cluster/cluster.conf

<cluster config_version="9" name="mycluster">
  <fence_daemon/>
  <clusternodes>
    <clusternode name="ha1p" nodeid="1">
      <fence>
        <method name="pcmk-method">
          <device name="pcmk-redirect" port="ha1p"/>
        </method>
      </fence>
    </clusternode>
    <clusternode name="ha2p" nodeid="2">
      <fence>
        <method name="pcmk-method">
          <device name="pcmk-redirect" port="ha2p"/>
        </method>
      </fence>
    </clusternode>
  </clusternodes>
  <cman expected_votes="1" two_node="1"/>
  <fencedevices>
    <fencedevice agent="fence_pcmk" name="pcmk-redirect"/>
  </fencedevices>
  <rm>
    <failoverdomains/>
    <resources/>
  </rm>
</cluster>

Toute aide serait très appréciée.

5
Krishna Kumar R

Oui, vous devez vous assurer que le nom d'hôte que vous utilisez dans votre définition de cluster n'est pas le nom d'hôte dans la ligne 127.0.0.1 LIGNE IN/ETC/HOSTS.

Donc, mon /etc/hosts ressemble à ça:

127.0.0.1   cluster-node1 domain.com localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.0.1     node1
192.168.0.2     node2
2
user450413

Peut-être que vous pouvez modifier/etc/hosts Fichier et supprimer des lignes contenant 127.0.0.1 et :: 1 (lignes qui mentionent localhost). J'ai ce problème exact et j'ai essayé d'utiliser cette méthode et j'ai résolu le problème.

1
kxu

L'erreur:

Node ha2p: UNCLEAN (offline)

Signifie que Corosync ne pouvait pas contacter les autres services Corosync exécutant les autres nœuds de cluster.

Comment réparer:

  • vérifiez sur quelle adresse IP écoute et assurez-vous que la propriété intellectuelle est sur une interface externe comme Eth0 et non sur l'interface de bouclage: ss -tulnp|egrep ':5405.*corosync'
  • assurez-vous que la version IP est IPv4 ou IPv6 comme prévu. Vous pouvez forcer IPv4 en ajoutant ip_version: ipv6 à totem section dans /etc/corosync/corosync.conf déposer.
  • vérifiez les règles de pare-feu
  • vérifiez les autres problèmes liés au réseautage. Assurez-vous que la propriété intellectuelle des nœuds est accessible entre elles.
  • utilisation getent ahosts $HOSTNAME Pour voir comment le nom de l'hôte actuel est résolu.
1
Mircea Vutcovici

Cela se produit car votre cluster ne dispose pas de la configuration complète de la stonite, dans l'état impuré signifie que le cluster ne connaît pas l'état du nœud.

1
c4f4t0r