반응형 계층구현2 딥러닝) 신경망 학습 전체 알고리즘 (코드) 1. 신경망 구축에 필요한 Layers import numpy as np from common.functions import * class Relu: def __init__(self): self.mask = None def forward(self, x): self.mask = (x lambda 변수: return 식 grads = {} grads['W1'] = numerical_gradient(loss_W, self.params['W1']) grads['b1'] = numerical_gradient(loss_W, self.params['b1']) grads['W2'] = numerical_gradient(loss_W, self.params['W2']) grads['b2'] = numerical_gradi.. 2021. 3. 18. 딥러닝) 활성화 함수 ReLU 계층 , Sigmoid 계층 구현 1. ReLU 계층 구현 (forward/ backward) 활성화 함수 중 하나인 ReLU함수는 아래와 같다. 순전파에서 입력이 x > 0이면 역전파에서 upstream 값을 그대로 downstrem으로 보내는 반면, 입력이 x 2021. 3. 15. 이전 1 다음 728x90 반응형