
500 Глава 15
... embedding_dim=3,
... padding_idx=0)
>>> # паке т из 2 пример ов по 4 индекса каждый
>>> text_encoded_input = torch.LongTensor([[1,2,4,5],[4,3,2,0]])
>>> print(embedding(text_encoded_input))
tensor([[[-0.7027, 0.3684, -0.5512],
[-0.4147, 1.7891, -1.0674],
[ 1.1400, 0.1595, -1.0167],
[ 0.0573, -1.7568, 1.9067]],
[[ 1.1400, 0.1595, -1.0167],
[-0.8165, -0.0946, -0.1881],
[-0.4147, 1.7891, -1.0674],
[ 0.0000, 0.0000, 0.0000]]], grad_fn=<EmbeddingBackward>)
Рис. 15.10. Схематическое представление того, как работает встраивание
Входные данные для этой модели (слой встраивания) должны иметь ранг 2 с размером
batchsize ×