1. Seq2Seq 모델에서 디코더는 입력 시퀀스를 고정된 길이의 벡터 표현으로 변환한다.
  2. Seq2Seq 모델에서 어텐션(Attention) 기법을 사용하는 이유는 입력 시퀀스에서 특정 부분에 집중하여 출력의 정확도를 높이기 위해서이다.
  3. Seq2Seq 모델에서 Teacher Forcing은 디코더가 훈련 중 정답 시퀀스를 입력으로 사용하게 하여 빠르고 안정적인 학습을 돕는다.
  4. PackedSequence는 시퀀스 길이가 모두 동일한 경우에만 사용할 수 있다.
  5. pad_packed_sequence는 패킹된 데이터를 다시 원래의 시퀀스 형태로 되돌린다.
  6. pad_sequence 함수를 사용하면 자동으로 시퀀스를 가장 긴 길이에 맞춰 패딩을 추가한다.
  7. PackedSequence의 패킹 과정에서는 시퀀스 길이에 따라 계산이 달라지므로, 항상 시퀀스를 정렬하지 않아도 된다.