1. 드롭아웃이 적용되어 학습된 모델의 예측과 평가도 드롭아웃을 적용한다. (O,X)
답:X, 적용하지 않아야 한다.
2. 모델이 잘 훈련되었는지 판단하려면 손실 함수의 값보다는 정확도를 확인하는 것이 낫다. (O,X)
답:X, 정확도보다는 손실 함수의 값을 확인하는 것이 더 나음.
3. 훈련이 끝난 뒤 평가나 예측을 수행할 때는 드롭아웃을 적용하지 말아야한다. (O,X)
답:O
4. 합성곱은 밀집층과 비슷하게 입력 전체를 사용해 선형 계산을 수행한다. (O,X)
답:X, 일부를 사용함.
5. 합성곱 계층의 필터 크기가 클수록 더 세밀한 특징을 추출할 수 있다. (O,X)
답:X, 클수록 -> 작을수록
6. CNN에서는 뉴런을 filter 혹은 kernel이라고 부른다. (O,X)
답:O
7. 입력 데이터가 10 x 10 크기이고, padding = 1인 Conv2D 레이어에 2 x 2 크기의 필터를 stride=2로 적용하면 출력되는 특성 맵의 크기는?
답:출력크기 = {(입력크기)-(필터크기)+2x(패딩)}/(스트라이드) +1 에 대입하여 계산
=> (6 x 6)
8. weight의 크기가 3 x 3 x 192 일 때 컨볼루션 레이어의 채널의 개수는?
답:192
9. 어떤 합성곱 층이 RGB 컬러 이미지에 대해 6개의 필터를 사용해 same padding으로 합성곱을 수행합니다. 그다음 (2, 2) max pooling 층을 통과한 특성 맵의 크기가 (5, 5, 6)이다. 이 경우 합성곱 층에 주입된 입력의 크기는?
답:(10, 10, 3)