Apache Spark: сервер истории (ведение журнала) + доступ без прав суперпользователя (HDFS)

У меня есть работающая HDFS и работающая среда Spark на удаленном сервере. Я запускаю приложения SparkR и надеюсь также увидеть журналы завершенного пользовательского интерфейса. Я выполнил все инструкции здесь: Windows: конфигурация сервера истории Apache Spark и был в состоянии запустить сервер истории на сервере.

Однако только тогда, когда суперпользователь (человек, который запустил узел имени Hadoop) и который запустил процессы Spark, запускает приложение Spark удаленно, ведение журнала успешно происходит в пути HDFS, и мы можем просматривать веб-интерфейс истории Spark. также.

Когда я запускаю одно и то же приложение из своего идентификатора пользователя (удаленно), хотя оно показывает на порту 18080, что сервер истории запущен и работает, он не регистрирует ни одно из моих приложений.

Мне предоставлен доступ для чтения, записи и выполнения к папке в HDFS.

Файл spark-defaults.conf теперь выглядит так:

 spark.eventLog.enabled            true
 spark.history.fs.logDirectory     hdfs://XX.XX.XX.XX:19000/user/logs
 spark.eventLog.dir                hdfs://XX.XX.XX.XX:19000/user/logs
 spark.history.ui.acls.enable      false 
 spark.history.fs.cleaner.enabled  true 
 spark.history.fs.cleaner.interval 1d
 spark.history.fs.cleaner.maxAge   7d

Я где-то упустил некоторые разрешения или настройки конфигурации (Spark? HDFS)?

Любые указатели/советы, чтобы продолжить отсюда, будут оценены.


person turnip424    schedule 25.07.2016    source источник
comment
Может ли кто-нибудь поделиться своим мнением и догадками о том, чего может не хватать? Я могу помочь предоставить подробную информацию о разрешениях / настройке, если это необходимо.   -  person turnip424    schedule 27.07.2016