Je souhaite exécuter mon travail d'allumage en mode Hadoop YARN cluster, et j'utilise la commande suivante:
spark-submit --master yarn-cluster
--driver-memory 1g
--executor-memory 1g
--executor-cores 1
--class com.dc.analysis.jobs.AggregationJob
sparkanalitic.jar param1 param2 param3
Je reçois l'erreur ci-dessous, suggère gentiment ce qui ne va pas, est la commande correcte ou non. J'utilise CDH 5.3.1.
Diagnostics: Application application_1424284032717_0066 failed 2 times due
to AM Container for appattempt_1424284032717_0066_000002 exited with
exitCode: 15 due to: Exception from container-launch.
Container id: container_1424284032717_0066_02_000001
Exit code: 15
Stack trace: ExitCodeException exitCode=15:
at org.Apache.hadoop.util.Shell.runCommand(Shell.Java:538)
at org.Apache.hadoop.util.Shell.run(Shell.Java:455)
at org.Apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.Java:702)
at org.Apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.Java:197)
at org.Apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.Java:299)
at org.Apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.Java:81)
at Java.util.concurrent.FutureTask.run(FutureTask.Java:262)
at Java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.Java:1145)
at Java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.Java:615)
at Java.lang.Thread.run(Thread.Java:745)
Container exited with a non-zero exit code 15
.Failing this attempt.. Failing the application.
ApplicationMaster Host: N/A
ApplicationMaster RPC port: -1
queue: root.hdfs
start time: 1424699723648
final status: FAILED
tracking URL: http://myhostname:8088/cluster/app/application_1424284032717_0066
user: hdfs
2015-02-23 19:26:04 DEBUG Client - stopping client from cache: org.Apache.hadoop.ipc.Client@4085f1ac
2015-02-23 19:26:04 DEBUG Utils - Shutdown hook called
2015-02-23 19:26:05 DEBUG Utils - Shutdown hook called
Toute aide serait grandement appréciée.
Cela peut vouloir dire beaucoup de choses. Pour nous, nous obtenons le même message d'erreur en raison d'une version de classe Java non prise en charge, et nous avons résolu le problème en supprimant la classe Java référencée dans notre projet.
Utilisez cette commande pour voir le message d'erreur détaillé:
yarn logs -applicationId application_1424284032717_0066
Vous devez supprimer ".setMaster (" local ")" dans le code.
Pour moi, le problème du code de sortie a été résolu en plaçant Hive-site.xml
dans le répertoire spark/conf
.
La commande semble correcte.
Ce que j’ai découvert, c’est que le "code de sortie 15" indique normalement une exception TableNotFound. Cela signifie généralement qu'il y a une erreur dans le code que vous soumettez.
Vous pouvez vérifier cela en visitant l'URL de suivi.
Supprimez la ligne "spark.master":"local[*]
"dans le fichier de configuration d'étincelle si vous exécutez les travaux d'étincelle sous cluster.
Supposons que vous exécutiez le PC local, incluez-le.
Mani