⇒ 정답 : 2
딥러닝 모델은 역전파를 통해 출력층(output layer)에서 입력층(input layer)로 오차 기울기(gradient)를 전파하고 기울기 업데이트를 하면서 훈련이 진행됨
기울기 소실(Gradient Vanishing) : 역전파 과정에서 입력층으로 갈수록 기울기(Gradient)가 점차적으로 작아지는 현상
→ 경사하강법에서 발생
기울기 폭주(Gradient Exploding) : 기울기가 점차 커지더니 가중치들이 비정상적으로 큰 값이 되면서 결국 발산되는 현상
→ RNN(Recurrent Neural Network) 같은 순환 신경망에서 자주 발생
로지스틱 회귀는 선형 회귀 분석과는 다르게 종속변수가 범주형 데이터를 대상으로 하며, 입력 데이터가 주어졌을 때 해당 데이터의 결과가 특정 분류로 나뉘기 때문에 일종의 분류 기법으로도 볼 수 있음