문제1

2번. linear regression에도 가중치가 1개 존재한다.

3번. multiple linear regression도 독립변수와 종속변수가 선형 관계이다.

5번. multiple linear regression도 B==C 이다.

문제2

3번. R2 결정 계수는 오차가 없을 수록 1에 가깝고, 오차가 클 수록 0에 가깝다.(반비례)

문제3

x = np.array([1, 3, 5, 7, 9, 11])
y = np.array([130, 128, 132, 140, 153, 150])
w, b = 2, 125

pred = x * w + b
mse = sum((y - pred)**2) / len(y)

for case in zip(x, y, pred):
    print("%02d월 주가 = %d, 예측 주가 = %d"%(case[0], case[1], case[2]))
print("최종 mse: ", mse)
print("12월 예상 주가 :", w*12+b)

문제4

4번

  1. Ridge는 L2, Lasso는 L1을 이용한다.

  2. 변수 사이 상관 관계가 높으면 가중치를 0으로 만들지 않는 Ridge가 유리하다.

  3. 잔자제곱합은 Ridge와 lasso 모두 사용한다.

  4. Ridge와 lasso 둘 다 과대적합을 방지하고 과소 적합 가능성을 높인다. Lasso가 더 적은 feature를 이용해서 Lasso가 과소 적합이 될 가능성이 Ridge에 비해 더 높다.

문제5

<aside> 🧐 solution code

Google Colaboratory

</aside>