이론 문제 # 1.

정답 : 2

  1. 경사하강법을 수행할 때 역전파(Back Propagation)과정에서 입력층으로 갈수록 기울기가 점차적으로 작아지는 기울기 소실이 발생함.

이론 문제 # 2.

정답 : 1, 4

  1. 확률적 경사 하강법 : 하나의 샘플을 사용하여 최적의 모델을 찾는 알고리즘

  2. 배치 경사 하강법 : 매 경사 하강법 스텝에서 전체 훈련 세트에 대해 계산하여 최적의 모델을 찾는 알고리즘

⇒ 전체 훈련샘플을 사용하기 때문에 확률적 경사 하강법보다 훨씬 많은 연산을 필요로 함.

  1. 손실 함수(loss function) : 샘플 하나에 대한 손실 정의

⇒ 손실함수의 값이 작을수록 최적화가 잘 됨.


실습 문제 # 3.

proba = LogiReg.predict_proba(scaled_tomato)

for i in range(len(tomato)):
  if LogiReg.predict(scaled_tomato)[i] == '채소류':
    type_name = '채소'
    probability = np.round(proba[i][1],decimals=6)
  else:
    type_name = '과일'
    probability = np.round(proba[i][0],decimals=6)

  print("%s = %s : %f"%(tomato['식품명'][i],type_name,probability))

이론 문제 # 4.