BERT как услуга (https://github.com/hanxiao/bert-as-service) позволяет извлекать вложения на уровне предложений. Предполагая, что у меня есть предварительно обученная модель LSA, которая дает мне 300-мерный вектор слов, я пытаюсь понять, в каком сценарии модель LSA будет работать лучше, чем BERT, когда я пытаюсь сравнить два предложения на семантическую согласованность?
Я не могу придумать причину, по которой LSA было бы лучше для этого варианта использования, поскольку LSA - это просто сжатие большой матрицы слов.