
확률 분포가 얼마나 "불확실" 한지를 측정하는 정보이론의 핵심 지표. 결정트리의 정보이득, 교차엔트로피 손실의 뿌리:
단위: bits (log₂ 사용).
[1, 0, 0]): (불확실성 없음).[1/k, …, 1/k]): (최대 불확실성). 인 항은 으로 취급. 수치적으로는 p[p>0] 만 계산하거나 np.where 로 mask.
함수 entropy(probs) 를 완성하세요.
float, 비트 단위.p = 0 에서 NaN 없이.| # | 이름 | 입력 | 기대 |
|---|---|---|---|
| 1 | one-hot → 0 | [1, 0, 0] | 0 |
| 2 | 균등 이진 → 1 | [0.5, 0.5] | 1 |
| 3 | 균등 3-클래스 → log₂3 | [1/3]*3 | ≈ 1.585 |
| 4 | 편향 분포 | [0.9, 0.1] | ≈ 0.469 |
| 5 | 0 확률 NaN 없음 | [0.5, 0.5, 0, 0] | 1 (유한) |
코드를 작성하고 Run 을 눌러보세요.