Я следую этому руководству: http://nlp.seas.harvard.edu/2018/04/03/attention.html для реализации модели Transformer из статьи "Attention Is All You Need".
Однако я получаю следующую ошибку: RuntimeError: «exp» не реализовано для torch.LongTensor.
Это строка в классе PositionalEnconding, вызывающая ошибку:
div_term = torch.exp(torch.arange(0, d_model, 2) * -(math.log(10000.0) / d_model))
Когда он здесь строится:
pe = PositionalEncoding(20, 0)
Любые идеи?? Я уже пробовал преобразовать это, возможно, в тип Tensor Float, но это не сработало.
Я даже загрузил всю записную книжку с сопутствующими файлами, и ошибка, похоже, сохраняется в исходном руководстве.
Есть идеи, что может вызвать эту ошибку?
Спасибо!
float()
для некоторых тензоров и преобразовав их вFloatTensor
s. Но теперь я получаю эту ошибку:Floating point exception: 8
и python завершает работу. Мне было интересно, была ли у вас такая же проблема. Если вы этого не сделали, что вы сделали, чтобы исправить те другие проблемы с типом поплавка? - person user2268997   schedule 01.12.2018