Наш производственный узел Cloudera Manager (4.7) вышел из строя, поэтому мы установили на этот узел новую ОС. Мы пытаемся восстановить Cloudera Manager из имеющихся у нас резервных копий (встроенной) базы данных postgresql. Мы надеемся, что с помощью восстановленной БД CM сможет управлять существующим кластером с существующими конфигурациями.
Мы делаем несколько POC, в которых пытаемся перенести менеджер cloudera на новый сервер с помощью шагов, описанных ниже. (В конце концов мы установим CM на тот же узел)
- установить cloudera-server-daemons cloudera-server
- установить cloudera-server-db
- sudo service cloudera-server-db start => создает базовые роли; восстанавливает пароли и т. д.
- поэтому из нашего pg_dumpall foo.sql мы удалили начальные операторы, создающие роли, пароли и базу данных.
pql -U cloudera-scm -h localhost -p 7432 -f foo.sql postgres
.Это успешно завершено. - На каждом узле в кластере измените файл /etc/cloudera-scm-agent/config.ini, чтобы он указывал на новый узел.
- запуск службы sudo cloudera-server. => мы ожидали, что CM подберет конфиги и просто загрузит. Однако это приводит нас к странице установки
- Установите бесплатную версию. Либо ищем ips либо видим доступные хосты.
- Затем он обновляет пакеты cdh на каждом узле в кластере и запрашивает установку служб.
- После этого процесс немного неясен. Однако нам удалось назначить роли соответствующим узлам, например. HDFS с использованием того же корневого каталога не был отформатирован, и все в порядке. Однако вся наша конфигурация отсутствует. Кажется, это говорит о том, что CM не считывал восстановленную БД.
Вышеуказанные шаги не кажутся правильным способом восстановления состояния менеджера облака. Это Reference, возможно, содержит простой способ сделать это. Следуя шагам, упомянутым в ссылке, мы все еще не можем заставить CM считать восстановленную БД. Может кто-нибудь указать правильные шаги, пожалуйста? Любая помощь приветствуется.