Использование Spark JDBC и Avatica для чтения записей из таблицы в Apache Druid

Я пытаюсь создать Dataframe в Spark, который будет содержать все записи из таблицы в Apache Druid, и я делаю это с помощью JDBC. Похоже, что Druid использует драйвер JDBC Calcite-Avatica (упомянутый здесь ).

    df = spark.read.format('jdbc').option('url', 'jdbc:avatica:remote:url=http://172.31.5.20:8082/druid/v2/sql/avatica/').option('driver', 'org.apache.calcite.avatica.remote.Driver').option('dbtable', 'mytable').load()

Но я получаю следующую ошибку

Py4JJavaError: An error occurred while calling o456.load.
: java.sql.SQLException: While closing connection
    at org.apache.calcite.avatica.Helper.createException(Helper.java:39)
    at org.apache.calcite.avatica.AvaticaConnection.close(AvaticaConnection.java:156)
    at org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$.resolveTable(JDBCRDD.scala:70)
    at org.apache.spark.sql.execution.datasources.jdbc.JDBCRelation.<init>(JDBCRelation.scala:115)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:52)
    at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:341)
    at org.apache.spark.sql.DataFrameReader.loadV1Source(DataFrameReader.scala:239)
    at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:227)
    at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:164)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
    at py4j.Gateway.invoke(Gateway.java:282)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Thread.java:748)
Caused by: java.lang.RuntimeException: com.fasterxml.jackson.databind.exc.UnrecognizedPropertyException: Unrecognized field "rpcMetadata" (class org.apache.calcite.avatica.remote.Service$CloseConnectionResponse), not marked as ignorable (0 known properties: ])
 at [Source: (String)"{"response":"closeConnection","rpcMetadata":{"response":"rpcMetadata","serverAddress":"ip-172-31-5-234.ap-southeast-1.compute.internal:8082"}}
"; line: 1, column: 46] (through reference chain: org.apache.calcite.avatica.remote.Service$CloseConnectionResponse["rpcMetadata"])
    at org.apache.calcite.avatica.remote.JsonService.handle(JsonService.java:142)
    at org.apache.calcite.avatica.remote.JsonService.apply(JsonService.java:229)
    at org.apache.calcite.avatica.remote.RemoteMeta.closeConnection(RemoteMeta.java:78)
    at org.apache.calcite.avatica.AvaticaConnection.close(AvaticaConnection.java:153)
    ... 18 more
Caused by: com.fasterxml.jackson.databind.exc.UnrecognizedPropertyException: Unrecognized field "rpcMetadata" (class org.apache.calcite.avatica.remote.Service$CloseConnectionResponse), not marked as ignorable (0 known properties: ])
 at [Source: (String)"{"response":"closeConnection","rpcMetadata":{"response":"rpcMetadata","serverAddress":"ip-172-31-5-234.ap-southeast-1.compute.internal:8082"}}
"; line: 1, column: 46] (through reference chain: org.apache.calcite.avatica.remote.Service$CloseConnectionResponse["rpcMetadata"])
    at com.fasterxml.jackson.databind.exc.UnrecognizedPropertyException.from(UnrecognizedPropertyException.java:61)
    at com.fasterxml.jackson.databind.DeserializationContext.handleUnknownProperty(DeserializationContext.java:823)
    at com.fasterxml.jackson.databind.deser.std.StdDeserializer.handleUnknownProperty(StdDeserializer.java:1153)
    at com.fasterxml.jackson.databind.deser.BeanDeserializerBase.handleUnknownProperty(BeanDeserializerBase.java:1589)
    at com.fasterxml.jackson.databind.deser.BeanDeserializerBase.handleUnknownVanilla(BeanDeserializerBase.java:1567)
    at com.fasterxml.jackson.databind.deser.BeanDeserializer.vanillaDeserialize(BeanDeserializer.java:294)
    at com.fasterxml.jackson.databind.deser.BeanDeserializer._deserializeOther(BeanDeserializer.java:189)
    at com.fasterxml.jackson.databind.deser.BeanDeserializer.deserialize(BeanDeserializer.java:161)
    at com.fasterxml.jackson.databind.jsontype.impl.AsPropertyTypeDeserializer._deserializeTypedForId(AsPropertyTypeDeserializer.java:130)
    at com.fasterxml.jackson.databind.jsontype.impl.AsPropertyTypeDeserializer.deserializeTypedFromObject(AsPropertyTypeDeserializer.java:97)
    at com.fasterxml.jackson.databind.deser.BeanDeserializerBase.deserializeWithType(BeanDeserializerBase.java:1178)
    at com.fasterxml.jackson.databind.deser.impl.TypeWrappedDeserializer.deserialize(TypeWrappedDeserializer.java:68)
    at com.fasterxml.jackson.databind.ObjectMapper._readMapAndClose(ObjectMapper.java:4014)
    at com.fasterxml.jackson.databind.ObjectMapper.readValue(ObjectMapper.java:3005)
    at org.apache.calcite.avatica.remote.JsonService.decode(JsonService.java:131)
    at org.apache.calcite.avatica.remote.JsonService.apply(JsonService.java:227)
    ... 20 more

Кто-нибудь знает, что может быть причиной этого и как это исправить? Похоже, что это проблема с драйвером Avatica, где он получает объект json с нераспознаваемым полем.

Я использую драйвер org.apache.calcite.avatica:avatica-core:1.17.0 и добавил файл jar в свое свойство spark.jars. Я использую Druid 0.19.0 и Spark2.

Изменить: я проверил исходный код для платформы Avatica JDBC, и конструктор, помеченный как @JsonCreator, ожидает свойства с именем rpcMetadata в десериализуемом объекте json. Исходный код: здесь.


person thisisshantzz    schedule 17.10.2020    source источник


Ответы (1)


Используйте нижеприведенную библиотеку и попробуйте еще раз.

"org.apache.calcite.avatica" % "avatica" % "1.8.0"

person Srinivas    schedule 17.10.2020
comment
Спасибо за предложение, но это не помогло. Я получаю точно такое же сообщение об ошибке. - person thisisshantzz; 18.10.2020
comment
Хорошо, я создал build.sbt и протестировал его работу в scala .. как вы используете Python для импорта этой библиотеки? - person Srinivas; 18.10.2020
comment
Я загрузил банку из maven central и добавил ее в параметр конфигурации spark.jars. Затем я написал эту единственную строчку в блокноте цеппелина и получил ошибку. Я увидел исходный код и обнаружил, что конструктор @JsonCreator ожидает поле с именем rpcMetadata, поэтому я не понимаю, почему возникает эта ошибка. - person thisisshantzz; 18.10.2020
comment
@thisisshantzz Столкнувшись с той же проблемой, любые предложения здесь будут большим подспорьем. Заранее спасибо. - person Praveen Venkatapuram; 04.03.2021