<aside>
📢
맞는 문장은 O, 틀린 문장은 X로 표시하고 틀린 문장은 올바르게 고쳐주세요.
</aside>
- 롱 시퀀스 코드에서는 리스트를 변환 과정 없이 바로 학습에 사용한다.
- 롱 시퀀스 데이터를 처리할 때, 긴 문장을 청크 단위로 나누고 미니 배치를 생성하여 학습에 활용한다.
- RNN 기반 모델에서 언더피팅을 방지하려면 추가적인 스택과 완전 연결 계층을 사용하는 것이 효과적이다.
- LSTM(Long Short-Term Memory) 구조는 기본 RNN보다 긴 시퀀스 데이터를 더 효과적으로 처리할 수 있다.
- 코드에서 batch_first=True는 입력 데이터의 첫 번째 차원이 배치 크기임을 의미한다.
- RNN은 주로 자주 사용하는 구성 요소인 LSTM보다 계산 속도는 빠르지만, 긴 시퀀스 처리에 더 약하다.
- RNN은 긴 시퀀스 데이터에서 기울기 소실(vanishing gradient) 문제가 발생하기 쉬운 구조이다.
- LSTM은 RNN과 달리 입력 게이트, 출력 게이트, 망각 게이트를 통해 정보의 흐름을 조절할 수 있다.
- LSTM의 구조에는 순환 요소가 없기 때문에 시계열 데이터를 처리할 수 없다.
Dacon&Kaggle 실습 문제
문제 자유선정!!
Dacon&Kaggle 문제중 자유롭게 2문제를 선택하여 해결하시면 됩니다.
문제를 해결 후에 각각 9주차 문제 제출일(12/1), 10주차 문제 제출일(12/8)에 한문제씩 문제 제출 페이지에 리더보드 캡쳐와 사용한 코드를 같이 제출하시면 됩니다!