0. Attention

(사실 8강 앞부분 내용임)

Seq2Seq의 한계

bottleneck problem

⇒ 사람이 번역을 할 때도 source sentence를 확인하며 필요한 부분에 attention을 주는 아이디어가 제안됨

Attention

Untitled

1. RNN for NLP

Circa 2016, nlp strategy

⇒ 2021년, 모델에서 최적의 building block은 무엇일까?

RNN의 문제점