Вопросы по теме 'apache-spark-standalone'

Общие сведения о Spark: узлы Cluster Manager, Master и Driver
Прочитав этот вопрос , я хотел бы задать дополнительные вопросы: Диспетчер кластеров - это служба с длительным сроком службы, на каком узле она запущена? Возможно ли, что главный и драйверный узлы будут одной и той же машиной? Я предполагаю,...
7897 просмотров

Apache Spark: различия между режимами развертывания клиента и кластера
TL; DR: в чем разница между режимами развертывания клиента и кластера в автономном кластере Spark? Как мне установить, в каком режиме будет работать мое приложение? У нас есть автономный кластер Spark с тремя машинами, все с Spark 1.6.1:...
41726 просмотров

Почему автономный главный график драйверов на воркере?
schedule() в Master.scala показывает, что первая задача расписания - это планирование драйверов для рабочих. Поскольку Master запускает только автономный режим, драйверы будут работать на клиенте вне кластера Spark. Зачем мастеру нужно...
49 просмотров

Как настроить автономные конфигурации Spark для локального запуска примеров искр MLlib?
Я хочу запускать примеры Spark MLlib локально на своем компьютере (я думаю, это называется автономным). Я хочу запустить JavaWord2VecExample.java . эта конфигурация файла настроена для сеансов, которые запускают Spark на некоторых рабочих с одним...
133 просмотров

spark-shell в многоузловом искровом кластере не может спонсировать исполнителя на удаленном рабочем узле
Установленный искровой кластер в автономном режиме с 2 узлами, на первом узле работает главный узел искры, а на другом узле рабочий узел искры. Когда я пытаюсь запустить искровую оболочку на рабочем узле с кодом подсчета слов, он работает нормально,...
259 просмотров

Как настроить кластерную среду для приложений Spark на компьютерах с Windows?
Я разрабатывал в pyspark с автономным некластерным режимом искры. В эти дни я хотел бы больше узнать о кластерном режиме искры. Я поискал в Интернете и обнаружил, что мне может понадобиться диспетчер кластеров для запуска кластеров на разных машинах...
4839 просмотров

Apache Spark: сервер истории (ведение журнала) + доступ без прав суперпользователя (HDFS)
У меня есть работающая HDFS и работающая среда Spark на удаленном сервере. Я запускаю приложения SparkR и надеюсь также увидеть журналы завершенного пользовательского интерфейса. Я выполнил все инструкции здесь: Windows: конфигурация сервера...
657 просмотров

Как использовать start-all.sh для запуска автономного рабочего процесса, который использует другой SPARK_HOME (чем главный)?
Я установил spark 2.1.1 на 2 машины, но в разные относительные местоположения , то есть на одну машину я установил где-то на диск NTFS, а на другой я установил его на диск ext4. Я пытаюсь запустить кластер в автономном режиме с 2 ведомыми...
4059 просмотров

Исполнитель не может выбрать драйвер postgres в автономном кластере Spark
Я отправлял приложение play для запуска автономного кластера 2.1. В игровом приложении также добавлена ​​зависимость postgres, и приложение работает с локальными библиотеками spark. Но во время выполнения на автономном кластере выдает ошибку:...
331 просмотров

Сбой простого искрового зажигания из-за предела накладных расходов ГХ
Я создал автономный кластер Spark (2.1.1) на своих локальных машинах с 9 ядрами / 80 ГБ на каждой машине (всего 27 ядер / 240 ГБ оперативной памяти) У меня есть образец искровой работы, который суммирует все числа от 1 до x, это код: package...
293 просмотров

Spark Standalone в Kubernetes — приложение было завершено после последовательного мастера, а затем сбоя драйвера
Попытка добиться высокой доступности SparkMaster с помощью ZooKeeper с устойчивостью SparkDriver с использованием контрольной точки метаданных в GlusterFS. Некоторая информация: Использование Spark 2.2.0 (готовый двоичный файл) Отправка...
417 просмотров

SPARK 2.4 Standalone + Multiple Workers на одном многоядерном сервере; Заявки ожидают ресурсов
На достаточно оборудованном 64-разрядном сервере Fedora (домашнем) с 12-Cores и 64gb-RAM у меня есть Spark 2.4 , работающий в режиме Standalone со следующей конфигурацией в ./spark-env.sh (где не показаны элементы в этом файле, которые у...
905 просмотров

Spark Standalone, как передать локальный файл .jar в кластер
У меня есть кластер с двумя рабочими и одним мастером. Чтобы запустить мастер и рабочие, я использую sbin/start-master.sh и sbin/start-slaves.sh на главной машине . Затем главный пользовательский интерфейс показывает мне, что ведомые устройства...
915 просмотров

Автономный планировщик apache spark — зачем драйверу нужно целое ядро ​​​​в «кластерном» режиме?
В режиме развертывания «клиент» искры драйвер искры не потребляет ядра, только приложения искры. Но почему в «кластерном» режиме драйверу искры нужно ядро ​​для себя?
83 просмотров

Подключение к удаленному кластеру Spark
У меня проблема с удаленным подключением к искровому кластеру из ноутбука Jupyter. Локально работает нормально. Способ 1: conf = pyspark.SparkConf().setAppName('Pi').setMaster('spark://my-cluster:7077') sc = pyspark.SparkContext(conf=conf)...
7540 просмотров