Мы используем тему Kafka в приложении Flink, используя Flink Table API.
Когда мы впервые отправляем приложение, мы сначала читаем последнюю схему из нашего настраиваемого реестра. Затем создайте поток данных и таблицу Kafka, используя схему Avro. Реализация моих сериализаторов данных работает аналогично реестру схем Confluent, проверяя идентификатор схемы и затем используя реестр. Таким образом, мы можем применить правильную схему во время выполнения.
Однако я не знаю, как обновить схему таблицы и повторно выполнить SQL без повторного развертывания задания. Есть ли способ создать фоновый поток для проверки изменений схемы, и если они есть, приостанавливает текущее выполнение, обновляет схему таблицы и выполняет SQL.
Это будет особенно полезно для непрерывной доставки изменений схемы в приложения. У нас уже есть проверка на совместимость.