- Seq2Seq 모델에서 디코더는 입력 시퀀스를 고정된 길이의 벡터 표현으로 변환한다.
- Seq2Seq 모델에서 어텐션(Attention) 기법을 사용하는 이유는 입력 시퀀스에서 특정 부분에 집중하여 출력의 정확도를 높이기 위해서이다.
- Seq2Seq 모델에서 Teacher Forcing은 디코더가 훈련 중 정답 시퀀스를 입력으로 사용하게 하여 빠르고 안정적인 학습을 돕는다.
- PackedSequence는 시퀀스 길이가 모두 동일한 경우에만 사용할 수 있다.
- pad_packed_sequence는 패킹된 데이터를 다시 원래의 시퀀스 형태로 되돌린다.
- pad_sequence 함수를 사용하면 자동으로 시퀀스를 가장 긴 길이에 맞춰 패딩을 추가한다.
- PackedSequence의 패킹 과정에서는 시퀀스 길이에 따라 계산이 달라지므로, 항상 시퀀스를 정렬하지 않아도 된다.
Dacon&Kaggle 실습 문제
문제 자유선정!!
Dacon&Kaggle 문제중 자유롭게 2문제를 선택하여 해결하시면 됩니다.
문제를 해결 후에 각각 9주차 문제 제출일(12/1), 10주차 문제 제출일(12/8)에 한문제씩 문제 제출 페이지에 리더보드 캡쳐와 사용한 코드를 같이 제출하시면 됩니다!