
엔트로피(36번) 가 한 분포 의 불확실성을 재는 양이라면, 교차 엔트로피는 진짜 분포 p 를 예측 분포 q 로 설명 할 때 필요한 평균 비트 수:
q 가 p 와 다를수록 값이 커짐 → "얼마나 잘못 예측했는가" 측정.y 를 one-hot으로 표현한 게 p, 모델 softmax 출력이 q.q → max(q, 1e-12)).함수 cross_entropy(p, q) 를 완성하세요.
float, bits.q <= 0 에서 NaN 없도록 클리핑.| # | 이름 | p | q | 기대 |
|---|---|---|---|---|
| 1 | p == q → H(p) | [0.5, 0.5] | [0.5, 0.5] | 1 |
| 2 | 완벽 예측 one-hot | [1, 0] | [1, 0] | 0 |
| 3 | 완전 반대 | [1, 0] | [0, 1] | 매우 큰 (클리핑 후 유한) |
| 4 | 중간 | [1, 0] | [0.5, 0.5] | 1 |
| 5 | Gibbs 부등식 | 임의 p, q | H(p, q) >= H(p) |
코드를 작성하고 Run 을 눌러보세요.