Где dask хранит файлы во время работы на juputerlab

Я запускаю dask на jupyterlab. Я пытаюсь сохранить какой-то файл в домашнем каталоге, где хранится мой файл Python, и он работает правильно, но я не могу узнать, где сохраняются мои файлы. Поэтому я создал папку с именем output в домашнем каталоге, чтобы сохранить файл внутри, но когда я сохраняю файл внутри нее, я получаю следующую ошибку:

PermissionError: [Errno 13] Permission denied: b'/home/jovyan/Output/20190101_0200'

Вот моя попытка:

from dask_gateway import Gateway
gateway = Gateway(
    address="http://traefik-pangeo-dask-gateway/services/dask-gateway",
    public_address="https://pangeo.aer-gitlab.com/services/dask-gateway",
    auth="jupyterhub",
)
options = gateway.cluster_options()
options

cluster = gateway.new_cluster(
    cluster_options=options,
)
cluster.adapt(minimum=10, maximum=50)
client = cluster.get_client()
cluster
client

def get_turb(file, name):
    
    d=[name[0:4],name[4:6],name[6:8],name[9:11],name[11:13]] 
    f_zip = gzip.decompress(file)

    yr=d[0]
    mo=d[1]
    da=d[2]
    hr=d[3]
    mn=d[4]
    
    fs = s3fs.S3FileSystem(anon=True)

    period = pd.Period(str(yr)+str('-')+str(mo)+str('-')+str(da), freq='D')
    # period.dayofyear
    dy=period.dayofyear

    cc=[7,8,9,10,11,12,13,14,15,16]  #look at the IR channels only for now
    dat = xr.open_dataset(f_zip)
    dd=dat[['recNum','trackLat','trackLon','altitude','maxEDR']]
    dd=dd.to_dataframe()
    dd = dd.sort_values(by=['maxEDR'])
    dd = dd.dropna()
    dd['num'] = np.arange(len(dd))
    dd.to_csv('Output/edr.csv') <----- Saving the file

edr_files = []

for i in range(2):
    print(names[i])
    s3_ds = dask.delayed(get_turb)(filedata[i], names[i])
    edr_files.append(s3_ds)

edr_files = dask.compute(*edr_files)

Подскажите, пожалуйста, что я делаю не так или какое возможное решение.

А также, когда я пытаюсь сохранить файл в корзине S3 напрямую, используя следующий код:

    s3.Bucket('temp').upload_file(file_name+'.zip', file_name+'.zip')

Выдает эту ошибку:

distributed.protocol.pickle - INFO - Failed to serialize <function get_temp at 0x7f20a9cb8550>. Exception: cannot pickle '_thread.lock' object
---------------------------------------------------------------------------
KeyError                                  Traceback (most recent call last)
/srv/conda/envs/notebook/lib/python3.8/site-packages/distributed/worker.py in dumps_function(func)
   3319         with _cache_lock:
-> 3320             result = cache_dumps[func]
   3321     except KeyError:

/srv/conda/envs/notebook/lib/python3.8/site-packages/distributed/utils.py in __getitem__(self, key)
   1572     def __getitem__(self, key):
-> 1573         value = super().__getitem__(key)
   1574         self.data.move_to_end(key)

/srv/conda/envs/notebook/lib/python3.8/collections/__init__.py in __getitem__(self, key)
   1009             return self.__class__.__missing__(self, key)
-> 1010         raise KeyError(key)
   1011     def __setitem__(self, key, item): self.data[key] = item

KeyError: <function get_temp at 0x7f20a9cb8550>

During handling of the above exception, another exception occurred:

TypeError                                 Traceback (most recent call last)
/srv/conda/envs/notebook/lib/python3.8/site-packages/distributed/protocol/pickle.py in dumps(x, buffer_callback, protocol)
     52                 buffers.clear()
---> 53                 result = cloudpickle.dumps(x, **dump_kwargs)
     54         elif not _always_use_pickle_for(x) and b"__main__" in result:

/srv/conda/envs/notebook/lib/python3.8/site-packages/cloudpickle/cloudpickle_fast.py in dumps(obj, protocol, buffer_callback)
     72             )
---> 73             cp.dump(obj)
     74             return file.getvalue()

/srv/conda/envs/notebook/lib/python3.8/site-packages/cloudpickle/cloudpickle_fast.py in dump(self, obj)
    562         try:
--> 563             return Pickler.dump(self, obj)
    564         except RuntimeError as e:

TypeError: cannot pickle '_thread.lock' object


person Chris_007    schedule 13.02.2021    source источник
comment
У вас есть код, где вы его сохраняете? Я получил это раньше. Быстрое исправление: попробуйте перезаписать существующий файл   -  person gumdropsteve    schedule 13.02.2021
comment
@gumdropsteve эй, пожалуйста, проверьте отредактированный вопрос!   -  person Chris_007    schedule 13.02.2021


Ответы (2)


Попробуйте использовать s3fs вместо boto3 для загрузки файлов на S3. Это может сработать.

person panthiv barot    schedule 19.02.2021

Кажется, вы запускаете dask и jupyterlab в докере?

Возможно, вам следует добавить некоторые флаги, такие как общение:

--user root \
-v new-longhorn-volume:/home/jovyan \
-e CHOWN_HOME=yes \
-e CHOWN_HOME_OPTS='-R' \
person William Mou    schedule 13.02.2021
comment
Эй, извините, я задаю глупый вопрос, должен ли я добавить это в свой блокнот Python или в терминал? - person Chris_007; 13.02.2021
comment
Вы должны добавить этот флаг при запуске док-контейнера, например, как показано ниже: docker run --user root -v new-longhorn-volume:/home/jovyan \ -e CHOWN_HOME=yes -e CHOWN_HOME_OPTS='-R' \ -it --rm -p 8888:8888 jupyter/datascience-notebook:latest - person William Mou; 13.02.2021