J'ai installé Java openjdk version "10.0.2"
et Hadoop 2.9.0
avec succès. Tous les processus fonctionnent bien
hadoopusr@amalendu:~$ jps
19888 NameNode
20388 DataNode
20898 NodeManager
20343 SecondaryNameNode
20539 ResourceManager
21118 Jps
Mais chaque fois que j'essaie d'exécuter une commande comme hdfs dfs -ls /
obtention de ces avertissements
hadoopusr@amalendu:~$ hdfs dfs -ls /
WARNING: An illegal reflective access operation has occurred
WARNING: Illegal reflective access by org.Apache.hadoop.security.authentication.util.KerberosUtil (file:/usr/local/hadoop/share/hadoop/common/lib/hadoop-auth-2.9.0.jar) to method Sun.security.krb5.Config.getInstance()
WARNING: Please consider reporting this to the maintainers of org.Apache.hadoop.security.authentication.util.KerberosUtil
WARNING: Use --illegal-access=warn to enable warnings of further illegal reflective access operations
WARNING: All illegal access operations will be denied in a future release
18/09/04 00:29:24 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-Java classes where applicable
Aidez-nous à résoudre ce problème. Ceci est ma configuration de fichier ~/.bashrc
export Java_HOME=/usr/lib/jvm/Java-11-openjdk-AMD64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
Il n'y a rien que vous puissiez faire à propos de ces avertissements, cela est lié au projet de puzzle et à une encapsulation forte (er).
Fondamentalement, il existe une classe appelée Sun.security.krb5.Config
qui fait partie d'un "module" appelé Java.security.jgss
. Ce module "définit" ce qu'il exporte (ce que les autres peuvent en utiliser) et à qui. Cela signifie également en anglais simple que ce n'est pas pour l'usage public - ne le touchez pas; eh bien hadoop
l'a fait, cela fait partie de leurs efforts pour résoudre ce problème. Vous pouvez le signaler ou essayer de mettre à niveau hadoop, peut-être que cela est déjà corrigé.
ce problème est dû à la dernière Java upgrades.please le configurer avec Java 8. son fonctionnement rapide).