Namenode не запускается на CentOS 7

Я установил Hadoop, используя платформу данных Hortonworks. У меня есть три машины под управлением CentOS 7. На одном из этих трех компьютеров запущены сервер amabari и экземпляр клиента ambari. Два других работают только с клиентом amabari.

Весь процесс установки шел нормально, пока не возникла задача NameNode Start, которая вызывает ошибку. NameNode работает на том же компьютере, что и сервер amabari.

Это журнал ошибок

Traceback (most recent call last):
  File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/namenode.py", line 401, in <module>
    NameNode().execute()
  File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 219, in execute
    method(env)
  File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/namenode.py", line 102, in start
    namenode(action="start", hdfs_binary=hdfs_binary, upgrade_type=upgrade_type, env=env)
  File "/usr/lib/python2.6/site-packages/ambari_commons/os_family_impl.py", line 89, in thunk
    return fn(*args, **kwargs)
  File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_namenode.py", line 146, in namenode
    create_log_dir=True
  File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/utils.py", line 267, in service
    Execute(daemon_cmd, not_if=process_id_exists_command, environment=hadoop_env_exports)
  File "/usr/lib/python2.6/site-packages/resource_management/core/base.py", line 154, in __init__
    self.env.run()
  File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 158, in run
    self.run_action(resource, action)
  File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 121, in run_action
    provider_action()
  File "/usr/lib/python2.6/site-packages/resource_management/core/providers/system.py", line 238, in action_run
    tries=self.resource.tries, try_sleep=self.resource.try_sleep)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 70, in inner
    result = function(command, **kwargs)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 92, in checked_call
    tries=tries, try_sleep=try_sleep)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 140, in _call_wrapper
    result = _call(command, **kwargs_copy)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 291, in _call
    raise Fail(err_msg)
resource_management.core.exceptions.Fail: Execution of 'ambari-sudo.sh su hdfs -l -s /bin/bash -c 'ulimit -c unlimited ;  /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/conf start namenode'' returned 1. starting namenode, logging to /var/log/hadoop/hdfs/hadoop-hdfs-namenode-hadoop.out

Журнал выше говорит:

resource_management.core.exceptions.Fail: выполнение 'ambari-sudo.sh su hdfs -l -s / bin / bash -c' ulimit -c unlimited; /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config / usr / hdp / current / hadoop-client / conf start namenode '' вернул 1. начальный namenode, ведение журнала в / var / log / хадуп / HDFS / хадуп-HDFS-имя-узел-хадуп.out

Но когда я открываю файл hadoop-hdfs-namenode-hadoop.out, это содержимое:

ulimit -a for user hdfs
core file size          (blocks, -c) unlimited
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 30513
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 128000
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 10240
cpu time               (seconds, -t) unlimited
max user processes              (-u) 65536
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

Я установил более высокие мягкие и жесткие ограничения для пользовательского hdfs, но это не сработало. Я сформировал namenode, но это тоже не сработало. Итак, я попытался переустановить сервер и клиентов, но он все еще не работает.

Спасибо за любой совет.


person antoniohgleite    schedule 29.03.2016    source источник
comment
Есть ли какие-либо ошибки, перечисленные в /var/log/hadoop/hdfs/hadoop-hdfs-namenode-hadoop.log?   -  person cjackson    schedule 30.03.2016
comment
Я наблюдаю ту же проблему - вы получили какие-нибудь подсказки?   -  person Mark D    schedule 30.06.2016


Ответы (1)


Вырвав несколько волос, я нашел обходной путь для себя, но пока не обязательно понимал, почему. Похоже, это как-то связано с DNS. Когда я добавляю имя хоста в файл hosts, проблема решается, а не зависит от DNS для текущего хоста. например

172.16.1.34 hostname.domain hostname

Это странно, поскольку DNS отлично работает с хостом. Я работаю через прокси.

person Mark D    schedule 30.06.2016