1. 로지스틱 회귀 이론
시그모이드 함수와 로지스틱 회귀의 오차 함수(로그 손실 함수)는 긴밀한 관계를 가지고 있습니다.
1. 시그모이드 함수의 출력값:
시그모이드 함수는 로지스틱 회귀 모델의 예측값을 확률(0~1 사이)로 변환합니다. 이 확률값은 특정 샘플이 특정 클래스에 속할 가능성을 나타냅니다.
2. 로그 손실 함수의 입력값:
로지스틱 회귀의 오차 함수인 로그 손실 함수는 시그모이드 함수의 출력값(예측 확률)과 실제 레이블(0 또는 1)을 입력으로 받습니다.
3. 오차 계산 및 모델 학습:
로그 손실 함수는 예측 확률과 실제 레이블 사이의 차이를 계산하여 오차를 측정합니다. 예측 확률이 실제 레이블과 가까울수록 오차는 작아집니다.
이 오차값을 기반으로 로지스틱 회귀 모델은 경사 하강법과 같은 최적화 알고리즘을 사용하여 모델의 가중치(베타)를 업데이트하고, 예측 성능을 향상시킵니다.
간단히 말해서, 시그모이드 함수는 로지스틱 회귀 모델의 예측 확률을 계산하고, 로그 손실 함수는 이 예측 확률을 사용하여 모델의 오차를 계산하고 학습을 위한 피드백을 제공합니다.
2. 로직스틱 회귀의 비용함수