2번. linear regression에도 가중치가 1개 존재한다.
3번. multiple linear regression도 독립변수와 종속변수가 선형 관계이다.
5번. multiple linear regression도 B==C 이다.
3번. R2 결정 계수는 오차가 없을 수록 1에 가깝고, 오차가 클 수록 0에 가깝다.(반비례)
x = np.array([1, 3, 5, 7, 9, 11])
y = np.array([130, 128, 132, 140, 153, 150])
w, b = 2, 125
pred = x * w + b
mse = sum((y - pred)**2) / len(y)
for case in zip(x, y, pred):
print("%02d월 주가 = %d, 예측 주가 = %d"%(case[0], case[1], case[2]))
print("최종 mse: ", mse)
print("12월 예상 주가 :", w*12+b)
4번
Ridge는 L2, Lasso는 L1을 이용한다.
변수 사이 상관 관계가 높으면 가중치를 0으로 만들지 않는 Ridge가 유리하다.
잔자제곱합은 Ridge와 lasso 모두 사용한다.
Ridge와 lasso 둘 다 과대적합을 방지하고 과소 적합 가능성을 높인다. Lasso가 더 적은 feature를 이용해서 Lasso가 과소 적합이 될 가능성이 Ridge에 비해 더 높다.
<aside> 🧐 solution code
</aside>