
655
16
장
RNN과 어텐션을 사용한 자연어 처리
어 임베딩을 사용한다면 ). 하지만 이 모델은 긴 문장에서는 성능이 매우 나쁩니다. 다시 한번
RNN
의 제한된 단기 기억으로 인한 문제가 대두됩니다. 어텐션 메커니즘은 이 문제를 해결하
는 획기적인 혁신 방법입니다.
16.4
어텐션 메커니즘
[그림
16
-
3
]에서 단어
milk
에서
lait
로 번역이 이어지는 경로를 생각해보면 매우 깁니다! 이
단어의 표현이 (다른 모든 단어와 함께 ) 실제 사용되기 전에 여러 단계를 이동해야 한다는 것
을 의미합니다. 이 경로를 더 짧게 만들 수 없을까요?
이것이 드미트리 바흐다나우
Dzmitry
Bahdanau
등이
2014
년에 발표한 혁신적인 논문
20
의 핵심 아
이디어입니다. 이 논문은 각 타임 스텝에서 (인코더에 의해 인코딩하여 ) 적절한 단어에 디코
더가 초점을 맞추도록 하는 기술을 소개했습니다. 예를 들어 디코더가 단어
lait
를 출력해야 하
는 타임 스텝에서 단어
milk
에 주의를 집중합니다. 입력 단어에서 번역까지 경로가 훨씬 짧아
지는 것을 의미하므로
RNN
의 단기 기억의 제한성에 훨씬 적은 영향을 받게 됩니다. 어텐션 메
커니즘은 신경망 기계 번역 (그리고 일반적인
NLP
작업 )에 큰 변화를 만들었습니다. 특히 (
30
단어 이상의 ) 긴 문장에 대해서 최고 수준의 ...