comment puis-je savoir quelle version de spark a été installée dans le CentOS?).
Le système actuel a installé cdh5.1.0.
Si vous utilisez Spark-Shell, il apparaît dans la bannière au début.
Par programme, SparkContext.version
peut être utilisé.
Vous pouvez utiliser la commande spark-submit: spark-submit --version
utilisez le
spark.version
Où spark
variable est de SparkSession
objet
spark-Shell
[root@bdhost001 ~]$ spark-Shell
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel).
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.2.0
/_/
spark-Shell --version
[root@bdhost001 ~]$ spark-Shell --version
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.2.0
/_/
Type --help for more information.
spark-submit --version
[root@bdhost001 ~]$ spark-submit --version
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.2.0
/_/
Type --help for more information.
Si vous utilisez Databricks et parlez à un ordinateur portable, exécutez simplement:
spark.version
utiliser ci-dessous pour obtenir la version spark
spark-submit --version
Si vous êtes sur bloc-notes Zeppelin, vous pouvez exécuter:
sc.version
pour connaître la version de scala vous pouvez également exécuter:
util.Properties.versionString
Quelle que soit la commande Shell que vous utilisiez, spark-shell ou pyspark, elle se retrouvera sur un logo Spark avec un nom de version à côté.
$ pyspark
$ Python 2.6.6 (r266: 84292, 22 mai 2015, 08:34:51)) [CCG 4.4.7 20120313 (Red Hat 4.4.7-15)] sur linux2 ............ ........... Bienvenue à
version 1.3.0
Si vous utilisez pyspark, la version spark utilisée] est visible à côté du logo en gras Spark, comme indiqué ci-dessous:
manoj@hadoop-Host:~$ pyspark
Python 2.7.6 (default, Jun 22 2015, 17:58:13)
[GCC 4.8.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel).
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 1.6.0
/_/
Using Python version 2.7.6 (default, Jun 22 2015 17:58:13)
SparkContext available as sc, HiveContext available as sqlContext.
>>>
Si vous voulez obtenir explicitement la version spark, vous pouvez utiliser la méthode de version de SparkContext comme indiqué ci-dessous:
>>>
>>> sc.version
u'1.6.0'
>>>