J'ai Spark 1.6.2 et Spark 2.0 installé sur mon cluster hortonworks.
Ces deux versions sont installées sur un nœud du cluster Hadoop de 5 nœuds.
Chaque fois que je lance le spark-Shell
je reçois:
$ spark-Shell
Multiple versions of Spark are installed but SPARK_MAJOR_VERSION is not set
Spark1 will be picked by default
Lorsque je vérifie la version, je reçois:
scala> sc.version
res0: String = 1.6.2
Comment puis-je démarrer l'autre version (spark-Shell de Spark2.0)?
export SPARK_MAJOR_VERSION=2
Vous devez juste donner la version majeure 2 ou 1.
$ export SPARK_MAJOR_VERSION=2
$ spark-submit --version
SPARK_MAJOR_VERSION is set to 2, using Spark2
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.0.0.2.5.0.0-1245
Travailler cette approche:
spark-Shell
charges Spark 1.6
en tapant
spark2-Shell
charge Spark 2.0
$ SPARK_MAJOR_VERSION=2 spark-Shell
utilisez spark2-submit, pyspark2 ou spark2-Shell