Я многого не понимаю в Spark, Spark Jobserver и DC/OS от Mesosphere. Но мне очень нравится проект Jobserver, а также очень нравится наш кластер DC/OS, и я бы очень хотел, чтобы они работали вместе.
Мои журналы мало что показывают, а контейнер Docker завершает работу со статусом 137 после следующего в стандартном выводе:
LOG_DIR empty; logging will go to /tmp/job-server
Который, когда я запускаю что-то локально, является последним журналом, прежде чем он продолжит запускать log4j в мой стандартный вывод и сообщает мне, что сервер заданий запускается. Я вижу следующее в stderr:
app/server_start.sh: line 54: 15 Killed $SPARK_HOME/bin/spark-submit --class $MAIN --driver-memory $JOBSERVER_MEMORY --conf "spark.executor.extraJavaOptions=$LOGGING_OPTS" --driver-java-options "$GC_OPTS $JAVA_OPTS $LOGGING_OPTS $CONFIG_OVERRIDES" $@ $appdir/spark-job-server.jar $conffile
Что, кажется, предполагает, что server_start.sh запускается из докера Spark JobServer, и этот скрипт по какой-то причине умирает?
Я удалил свой марафонский файл до этого, который все еще дает мне те же ошибки:
{
"id": "/jobserver",
"cpus": 0.5,
"mem": 100,
"ports": [0],
"instances": 1,
"container": {
"type": "DOCKER",
"docker": {
"image": "velvia/spark-jobserver:0.6.2.mesos-0.28.1.spark-1.6.1"
}
}
}
Любая помощь будет принята с благодарностью.