J'ai déjà installé Hadoop sur ma machine "Ubuntu 13.05" et j'ai maintenant une erreur lorsque je navigue sur localhost: 50070 le navigateur dit que la page n'existe pas.
Depuis Hadoop 3.0.0 - Alpha 1, la configuration du port a été modifiée:
http://localhost:50070
a été déplacé à
http://localhost:9870
le port 50070 a été remplacé par 9870 dans 3.0.0-alpha1
En fait, beaucoup d'autres ports ont également changé. Regardez:
Namenode ports: 50470 --> 9871, 50070 --> 9870, 8020 --> 9820
Secondary NN ports: 50091 --> 9869, 50090 --> 9868
Datanode ports: 50020 --> 9867, 50010 --> 9866, 50475 --> 9865, 50075 --> 9864
Tout d’abord, vérifiez que les processus Java exécutés à l’aide de "jps". Si vous êtes en mode pseudo-distribué, vous devez avoir les processus suivants:
S'il vous en manque, utilisez les commandes de redémarrage:
$HADOOP_INSTALL/bin/stop-all.sh
$HADOOP_INSTALL/bin/start-all.sh
C'est peut-être aussi parce que vous n'avez pas ouvert ce port sur la machine:
iptables -A INPUT -p tcp --dport 50070 -j ACCEPT
Pour les versions récentes de hadoop (J'utilise 2.7.1)
Les scripts de démarrage et d'arrêt se trouvent dans le dossier sbin
. Les scripts sont:
Cependant, je n'avais rien à faire avec yarn pour que l'instance NameNodeServer soit en cours d'exécution.
Maintenant, mon erreur est que je n’ai pas formaté le NameNodeServer HDFS.
bin/hdfs namenode -format
Je ne sais pas trop ce que cela fait pour le moment, mais cela prépare évidemment l'espace sur lequel le NameNodeServer utilisera pour fonctionner.
Si vous pouvez ouvrir http: // localhost: 8088/cluster mais ne pouvez pas ouvrir http: // localhost: 50070/ . Peut-être que datanode n'a pas démarré ou que namenode n'a pas été formé.
Hadoop version 2.6.4
vérifiez si votre namenode a été formaté, sinon tapez:
$ stop-all.sh
$ /path/to/hdfs namenode -format
$ start-all.sh
vérifiez votre chemin de fichier namenode tmp, à voir dans /tmp
, si le répertoire namenode est dans /tmp
, vous devez définir le chemin tmp dans core-site.xml
, car chaque fois que vous redémarrez ou démarrez votre ordinateur, les fichiers dans /tmp
seront supprimés. un chemin de répertoire tmp.
ajoutez ce qui suit.
<property>
<name>hadoop.tmp.dir</name>
<value>/path/to/hadoop/tmp</value>
</property>
vérifiez l’étape 2, arrêtez hadoop et supprimez le répertoire namenode tmp dans /tmp
, puis tapez /path/to/hdfs namenode -format
et lancez le hadoop. Le est également un répertoire tmp
dans $HADOOP_HOME
Si tout ce qui précède ne vous aide pas, veuillez commenter ci-dessous!
Activez le port de votre système pour CentOS 7 Passez les commandes ci-dessous.
1.firewall-cmd --get-active-zones
2.firewall-cmd --zone = dmz --add-port = 50070/tcp --permanent
3.firewall-cmd --zone = public --add-port = 50070/tcp --permanent
4.firewall-cmd --zone = dmz --add-port = 9000/tcp --permanent
5.firewall-cmd --zone = public --add-port = 9000/tcp --permanent 6.firewall-cmd --reload
Essayer
namenode -format
start-all.sh
stop-all.sh
jps
voir namenode
et datanode
en cours d'exécution et parcourir
localhost:50070
Si localhost:50070
ne fonctionne toujours pas, vous devez autoriser les ports. Alors, vérifiez
netstat -anp | grep 50070
Tout ce qu’il faut faire, c’est d’abord de démarrer les nœuds hadoop et les trackers, simplement en tapant Start-all.sh sur votre terminal . Pour vérifier que tous les suiveurs et les nœuds sont démarrés, écrivez la commande 'jps' . est bien et fonctionne, dans votre navigateur, tapez l’URL suivante http: // localhost: 50070
si vous utilisez une ancienne version de Hadoop (Hadoop 1.2), vous obtenez une erreur car http: // localhost: 50070/dfshealth.html ne quitte pas. Vérifiez http: // localhost: 50070/dfshealth.jsp qui fonctionne!
Il existe une question similaire à l'adresse suivante: Démarrer Hadoop 50075 Le port n'est pas résolu
Examinez votre fichier core-site.xml pour déterminer le port sur lequel il est défini. Si 0, il choisira un port au hasard, alors assurez-vous de le définir.