Настройка внешних jar-файлов с помощью записной книжки HDI Jupyter Spark (Scala)

У меня есть внешний настраиваемый jar-файл, который я хотел бы использовать с записными книжками Azure HDInsight Jupyter; ноутбуки Jupyter в HDI используют Spark Magic и Livy.

В первой ячейке записной книжки я пытаюсь использовать конфигурацию jars:

%%configure -f
{"jars": ["wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar"]}

Но я получаю следующее сообщение об ошибке:

Starting Spark application
The code failed because of a fatal error:
    Status 'shutting_down' not supported by session..

Some things to try:
a) Make sure Spark has enough available resources for Jupyter to create a Spark context. For instructions on how to assign resources see http://go.microsoft.com/fwlink/?LinkId=717038
b) Contact your cluster administrator to make sure the Spark magics library is configured correctly.
Current session configs: {u'jars': [u'wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar'], u'kind': 'spark'}
An error was encountered:
Status 'shutting_down' not supported by session.

Мне интересно, не понимаю ли я, как Livy работает в этом случае, поскольку мне удалось успешно включить искровый пакет (GraphFrames) в тот же кластер:

%%configure -f
{ "conf": {"spark.jars.packages": "graphframes:graphframes:0.3.0-spark2.0-s_2.11" }}

Некоторые дополнительные ссылки, которые могут быть полезны (на случай, если я что-то пропустил):


person Denny Lee    schedule 04.03.2017    source источник
comment
Есть какие-нибудь движения по этому поводу? Я сталкиваюсь с тем же самым с h2o и pysparkling.   -  person Jake Smith    schedule 29.03.2017


Ответы (2)


О, я смог понять это и забыл обновить свой вопрос. Это может сработать, если вы поместите банку в учетную запись хранения по умолчанию вашего кластера HDI.

HTH!

person Denny Lee    schedule 29.03.2017

на случай, если сюда придут для добавления банок на EMR.

%%configure -f
{"name": "sparkTest", "conf": {"spark.jars": "s3://somebucket/artifacts/jars/spark-avro_2.11-2.4.4.jar"}}

в отличие от документа, использовать jars напрямую не получится .

person Dyno Fu    schedule 23.03.2021