← 문제 목록/ReLU 활성화

ReLU 활성화

분류 기초 · easy

preview

ReLU (Rectified Linear Unit)

현대 딥러닝의 기본 활성함수. 단순하지만 게임 체인저였어요:

ReLU(z)=max(0,z)\text{ReLU}(z) = \max(0, z)

왜 강력한가

시그모이드·tanh와 비교:

활성포화 영역미분
sigmoid양끝에서 0에 가까움 → vanishing gradientσ(1σ)0.25\sigma(1-\sigma) ≤ 0.25
tanh양끝에서 0에 가까움1tanh21 - \tanh^2
ReLU음수에선 정확히 0 (dead neuron) 가능, 양수에선 미분 = 11 (양수) / 0 (음수)

ReLU는 양수 영역에서 그래디언트가 죽지 않아서 깊은 망의 학습 을 가능하게 만들었습니다. 단점: 음수 입력이 계속되면 뉴런이 "죽을" 수 있음 → Leaky ReLU, ELU 등 변형이 나옴.

과제

함수 relu(z) 를 완성하세요.

  • 스칼라 또는 NumPy 배열 입력.
  • np.maximum(0, z) 가 가장 깔끔.
  • 반환: 같은 shape.

테스트 케이스

#이름입력기대
1양수 그대로5.05.0
2음수는 0-3.50.0
30은 000
4벡터 입력[-1, 0, 1, 2][0, 0, 1, 2]
5음수 배열 전체 0[-2, -1, -0.1][0, 0, 0]
Loading...

코드를 작성하고 Run 을 눌러보세요.