Я пытаюсь адаптировать свои задания Spark, которые в настоящее время выполняются в локальном кластере Hadoop. Я хочу изменить его так, чтобы он продолжал поддерживать запуск в локальной среде и в облаке Google.
Я думал о том, чтобы иметь способ определить, определена ли данная переменная среды, чтобы определить, работает ли код в облаке:
def run_on_gcp():
return is_defined(os.env["ENVIRONMENT_VARIABLE"])
Я хотел знать, что будет за ENVIRONMENT_VARIABLE
, который всегда определяется в облаке Google и доступен из экземпляра Dataproc? Я думал о PROJECT_ID
ИЛИ BUCKET
, какую такую переменную вы обычно используете? Как вы обычно программно определяете, где выполняется ваш код? Спасибо