← 문제 목록/로지스틱 회귀 (경사하강법)

로지스틱 회귀 (경사하강법)

분류 · easy

preview

로지스틱 회귀 (Logistic Regression)

이진 분류의 가장 기본이 되는 선형 모델. 특성에 가중치 w\mathbf{w} 와 편향 bb 를 곱해 점수를 내고, 시그모이드로 확률로 변환합니다:

p(y=1x)=σ(wx+b),σ(z)=11+ezp(y=1 \mid \mathbf{x}) = \sigma(\mathbf{w}^\top \mathbf{x} + b), \quad \sigma(z) = \frac{1}{1 + e^{-z}}

BCE 손실의 경사는 놀랍도록 깔끔해요:

w=1NX(py),b=1N(py)\nabla_{\mathbf{w}} = \frac{1}{N} X^\top (p - y), \quad \nabla_b = \frac{1}{N} \sum (p - y)

과제

함수 fit(X, y, lr, n_steps) -> (w, b) 를 완성하세요.

  • 입력: X shape (N, D), y shape (N,) with {0, 1}.
  • 초기값: w = 0 (D,), b = 0.
  • n_steps 회 경사하강. for 루프 OK.
  • 반환: (w, b)w (D,) NumPy 배열, b float.

테스트 케이스

#이름검증
1선형 분리 가능 데이터학습 후 train 정확도 ≥ 0.95
2w shape(D,)
3양성 방향양성 중심에서 예측 확률 > 0.5
4수렴성100 steps 후 손실이 초기 대비 감소
Loading...

코드를 작성하고 Run 을 눌러보세요.