Я пытаюсь настроить и запустить свой первый запрос Spark после официального пример. На наших локальных машинах мы уже установили последнюю версию пакета Datastax Enterprise (пока это 4.7).
Я все делаю в точности по документации, я добавил в свой проект последнюю версию dse.jar, но ошибки возникают с самого начала:
Вот отрывок из их примера
SparkConf conf = DseSparkConfHelper.enrichSparkConf(new SparkConf())
.setAppName( "My application");
DseSparkContext sc = new DseSparkContext(conf);
Теперь кажется, что класс DseSparkContext
имеет только пустой конструктор по умолчанию.
Сразу после этих строк идет следующий
JavaRDD<String> cassandraRdd = CassandraJavaUtil.javaFunctions(sc)
.cassandraTable("my_keyspace", "my_table", .mapColumnTo(String.class))
.select("my_column");
И вот основная проблема: CassandraJavaUtil.javaFunctions(sc)
method принимает только SparkContext
на входе, а не DseSparkContext
(SparkContext
и DseSparkContext
- совершенно разные классы, и один не наследуется от другого).
Я предполагаю, что документация не актуальна для реальной версии, и если кто-то сталкивался с этой проблемой раньше, поделитесь со мной своим опытом,
Спасибо!