회귀이지만 분류를 해주는 로지스틱 회귀와 많이 쓰이는 확률적 경사 하강법에 대하여 알아보도록 합시다

📈 로지스틱 회귀 (Logistic Regression)

로지스틱 회귀 이진분류

선형 방정식을 학습한 뒤, **시그모이드 함수(Sigmoid Function) = 로지스틱 함수(Logistic Function)**를 사용하여 Class에 속할 확률을 구하는 모델

$$ P = \frac{1}{1+e^{-f(X)}} $$

$$ f(X)=\omega X + \beta $$

로지스틱 회귀 다중분류

각각의 feature에 대하여 선형방정식을 학습한 뒤 **소프트맥스 함수(Softmax Function)**를 사용하여 Class에 속할 확률을 구하는 모델

〽 시그모이드 함수 (Sigmoid Function = Logistic Function)

$$ \phi=\frac{1}{1+e^{-z}} $$

오즈(odds)비의 log를 씌운 값을 변형(로짓변환)하여 얻어진 함수🤯

로짓변환(logit transformation)

Untitled

선형 방정식확률로 변환해준다고 생각하면 편합니다

로지스틱 회귀로 이진분류를 할 때 사용합니다

〽 소프트맥스 함수(Softmax Function)

$$ y_k = \frac{e^{a_k}}{\sum_{i=1}^{n}{e^{a_i}}} $$

딥러닝-3.2. 활성화함수(3)-소프트맥스 함수(Softmax)

특정 데이터가 이 클래스에 속할 확률을 나타냅니다 (분모:전체, 분자:특정데이터)

여러개선형 방정식확률로 변환해줍니다

위의 이유로 지수함수를 사용하기에 정규화된 지수 함수 라고 부르기도 합니다

시그모이드함수(Sigmoid Function)에서 유도된 함수입니다