Я работаю в 9 узлах.
Все они собираются записывать некоторую информацию в файлы, выполняя простые операции записи, как показано ниже:
dfLogging.coalesce(1).write.format('delta').mode('append').save('/dbfs/' + loggingLocation)
Однако я получаю это исключение:
py4j.protocol.Py4JJavaError: ошибка при вызове o106.save. : java.util.concurrent.ExecutionException: org.apache.spark.SparkException: задание прервано из-за сбоя этапа: задача 1 на этапе 14.0 не удалась 1 раз, последний сбой: потерянная задача 1.0 на этапе 14.0 (TID 259, localhost, исполнитель драйвер): org.apache.hadoop.fs.ChecksumException: ошибка контрольной суммы: файл: /dbfs/delta/Logging/_delta_log/00000000000000000063.json на 0 exp: 1179219224 получил: -1020415797
Мне кажется, что из-за параллелизма искра почему-то дает сбой и генерирует ошибки контрольной суммы.
Есть ли какой-нибудь известный сценарий, который может его вызвать?
dfLogging.repartition(1).write.format('delta').mode('append').save('/dbfs/' + loggingLocation)
- person Rob   schedule 14.07.2019