В моем приложении есть экземпляры KafkaStreams с очень простой топологией: есть один процессор с хранилищем ключ-значение, и каждое входящее сообщение записывается в хранилище, а затем направляется вниз по потоку в приемник.
Я хотел бы увеличить количество разделов, которые у меня есть для моей исходной темы, а затем повторно обработать данные, чтобы каждое хранилище содержало только ключи, относящиеся к его разделу. (Насколько я понимаю, это делается с помощью инструмента сброса настроек приложения). Однако при повторной обработке данных я не хочу ничего пересылать вниз по потоку; Я хочу, чтобы пересылались только новые данные. (В противном случае потребители темы результата снова будут обрабатывать старые значения). Мой вопрос: есть ли простой способ добиться этого? Может быть, есть какой-нибудь встроенный механизм, который может помочь мне отличить повторно обработанные данные от новых?
заранее спасибо