J'ai suivi ceci réponse . Je reçois cette erreur:
classe spark: ligne 86:/usr/lib/jvm/Java-8-Oracle/bin/Java: aucun fichier ou répertoire de ce type
Et à ma grande surprise, j'ai:
gsamaras@gsamaras:/usr/lib/jvm$ ls
Java-1.7.0-openjdk-AMD64 Java-7-openjdk-AMD64
gsamaras@gsamaras:/usr/lib/jvm$ $Java_HOME
bash: /usr/lib/jvm/Java-8-Oracle: No such file or directory
Comment le corriger?
Plus d'informations (de ici ):
gsamaras@gsamaras:~$ which Java
/usr/bin/Java
gsamaras@gsamaras:~$ ls -alh /usr/bin/Java
lrwxrwxrwx 1 root root 22 Feb 10 00:54 /usr/bin/Java -> /etc/alternatives/Java
gsamaras@gsamaras:~$ ls -alh /etc/alternatives/Java
lrwxrwxrwx 1 root root 46 Feb 10 00:54 /etc/alternatives/Java -> /usr/lib/jvm/Java-7-openjdk-AMD64/jre/bin/Java
Dans le ~/.profile
j'avais ajouté:
export Java_HOME=/usr/lib/jvm/Java-7-openjdk-AMD64
export PATH=${Java_HOME}/bin:${PATH}
export HADOOP_CLASSPATH=${Java_HOME}/lib/tools.jar
de mon expérience Hadoop . Quand j'ai découvert que j'ai pu lancer Spark.
MODIFIER:
gsamaras@gsamaras:~/spark-1.6.0-bin-hadoop2.6/conf$ ls
docker.properties.template metrics.properties.template spark-env.sh.template
fairscheduler.xml.template slaves.template
Je ne sais pas si Spark fonctionnera avec Java 7, mais sinon, la solution évidente consiste à installer Java 8:
Sudo add-apt-repository ppa:webupd8team/Java
Sudo apt-get update
Sudo apt-get install Oracle-Java8-installer
Si vous répondez "oui" aux endroits appropriés, vous obtiendrez par défaut Java 8, sinon
Sudo update-Java-alternatives -s Java-8-Oracle
fera l'affaire.
Mise à jour: Ceci dit, si vous voulez exécuter OpenJDK 7, vous devez savoir où Java_HOME
est mal défini conformément au
gsamaras@gsamaras:/usr/lib/jvm$ $Java_HOME
bash: /usr/lib/jvm/Java-8-Oracle: No such file or directory
Puisque vous essayez de corriger cela dans .profile
(vous avez utilisé hash -r
ou vous vous reconnectez?), Vous souhaiterez peut-être vérifier load-spark-env.sh
ou d'autres scripts exécutés avant le lancement de Spark. correct.
À votre santé,
essayez simplement de localiser le fichier spark-env.sh dans votre dossier et de vérifier le Java_HOME indiqué. L'emplacement donné dans etc/environment doit être identique dans les deux fichiers