회귀이지만 분류를 해주는 로지스틱 회귀와 많이 쓰이는 확률적 경사 하강법에 대하여 알아보도록 합시다
선형 방정식을 학습한 뒤, **시그모이드 함수(Sigmoid Function) = 로지스틱 함수(Logistic Function)**를 사용하여 Class에 속할 확률을 구하는 모델
$$ P = \frac{1}{1+e^{-f(X)}} $$
$$ f(X)=\omega X + \beta $$
각각의 feature에 대하여 선형방정식을 학습한 뒤 **소프트맥스 함수(Softmax Function)**를 사용하여 Class에 속할 확률을 구하는 모델
$$ \phi=\frac{1}{1+e^{-z}} $$
오즈(odds)비의 log를 씌운 값을 변형(로짓변환)하여 얻어진 함수🤯

선형 방정식을 확률로 변환해준다고 생각하면 편합니다
로지스틱 회귀로 이진분류를 할 때 사용합니다
$$ y_k = \frac{e^{a_k}}{\sum_{i=1}^{n}{e^{a_i}}} $$
딥러닝-3.2. 활성화함수(3)-소프트맥스 함수(Softmax)
특정 데이터가 이 클래스에 속할 확률을 나타냅니다 (분모:전체, 분자:특정데이터)
여러개의 선형 방정식을 확률로 변환해줍니다
위의 이유로 지수함수를 사용하기에 정규화된 지수 함수 라고 부르기도 합니다
시그모이드함수(Sigmoid Function)에서 유도된 함수입니다