이론문제

  1. pd.unique(fish[’Species’])와 kn.classes 내의 원소 순서는 동일하다.

    1. X | 알파벳 순서대로 저장해놓기 때문에 KNeighborClassifier에서 정렬된 건 kn.classes에 들어있
  2. 로지스틱 회귀는 회귀 모델이다.

    1. X | 선형방정식을 활용한 분류모델임
  3. 3개 이상의 클래스를 분류하는 다중분류에서 z값을 -1~1까지의 값으로 바꾸기 위해 소프트 맥스 함수를 사용한다.

    1. X | 0~1까지의 값으로 바꿈
  4. 소프트 맥스 함수를 사용해 각 클래스의 z값을 0~1 사이의 값으로 변환한 뒤 다 더하면 1이 된다.

    1. O

      $$ \frac{e^{z1}+e^{z2}+e^{z3}}{e\_sum} = 1 $$

  5. 1 epoch는 전체 train_input 데이터에서 1개의 샘플을 뽑아 그 데이터에 대해서 훈련한 것을 의미한다.

    1. X | 모든 train_input 데이터를 다 사용했을 때 1epoch
  6. K-최근접 이웃 회귀 모델의 훈련결과가 과대적합일 경우 K 값을 줄여 모델을 더 단순하게 만들어야 한다.

    1. X | K 값을 줄이는 게 아니라 늘려야 한다.
  7. 시그모이드 함수(sigmoid function)는 0~1까지의 연속적인 형태로 변경하기 위한 함수로 이진분류인 경우 출력이 0.5를 기준으로 높을 경우 양수, 낮을 경우 음수 클래스로 판단한다.

    1. O
  8. 로지스틱회귀의 규제를 강화하려면 매개변수 C를 음수로 만들어야한다.

    1. X | 매개변수 C의 기본값은 1이고 규제를 강화하려면 0에 가깝게 줄이고 규제를 완화하려면 값을 키워야한다.
  9. 로지스틱 회귀로 다중분류를 수행하려면 시그모이드 함수보다 소프트맥스 함수를 사용한다.

    1. O
  10. 미니배치를 사용하여 학습하면 배치 경사하강법보다 큰 데이터를 학습시킬때 컴퓨터 자원을 적게 사용한다.

    1. O
  11. partial_fit()메소드를 사용하는 이유는 SGDClassifier에서 효율적으로 한 번에 처리하기 위해서이다.

    1. X
  12. max_iter= 즉 Epoch 횟수는 Hyper parameter이므로 사용자가 직접 정할 수 있는 값이다.

    1. O
  13. round()함수는 기본적으로 소수점 첫째 자리까지 반올림하며, decimals 매개변수로 유지할 소수점 아래 자릿수를 지정할 수 있다.

    1. X | 첫째 자리’까지’가 아니라 ‘에서’
  14. 슬라이싱 연산자는 샘플의 차원에 따라서 결과 차원이 결정된다. ex)1차원을 넣으면 1차원이 나온다

    1. X | 1차원을 넣어도 2차원으로 나옴
  15. decision_function() 메서드는 predict_proba() 메서드의 결과값 모두 z값을 계산해줄 수 있다.

    1. X | decision_function은 양성과 음성을 모두 계산해주지만, predict_proba는 양성 데이터만 z값을 게산해준다.

실습문제