M.L (p.175)

Affine 계층에 대한 순전파와 역전파에 대한 코드이다.

M.L (p.174)

Affine 계층에서 bias 에 대한 연산에 대한 코드이해다. 순전파에선 XW + b 연산이 수행되는데 python 에선 broad cast 기능때문에 행렬의 형태를 맞추어 주지 않아도…

M.L (p.166)

ReLu function 을 numpy array로 순전파와 역전파를 구현하는 코드이다. ReLu의 식이며, x > 0 일때는 x 자체를  0보다 작을때는 0을 출력하는 function 이다. 역전파에…

M.L (p.164)

다음은 사과 2개와 귤 3개 소비세를 포함한 총 가격이 역전파를 통해 각각의 변수가 얼마나 총 가격에 얼마나 영향을 미치는지 파악해 보는 코드이다. 구현한 코드가…

M.L (p.161)

backpropagation(역전파)에 덧셈과 곱셈 노드에 대한 코드이다. 역전파는 계산그래프를 거꾸로 돌아가며 각 weight와 parameter가 Y(output value)에 얼마나 영향을 미치는지(미분을 통해) chain rule 이라는 성질을 이용해…

M.L (p.143)

epoch 단위로 평가하는 코드이다. epoch 이란? 하나의 단위로 1 epoch은 학습에서 훈련 데이터를 모두 소진했을 때의 횟수에 해당, 예로 훈련 데이터 10,000개를 100개의 미니배치로…

M.L (p.141)

MNIST 데이터를 가지고 미니배치 학습을 구현한 코드이다. 훈련데이터와 테스트 데이터로 나누었고 정규화와 one_hot_encoding을 하였다. 앞서 만들었던 TwoLayerNet(신경망) 을 사용하여 학습한다. iters_num= 10,000이므로 for문을 10,000번…

M.L (p.137)

2층 신경망을 하나의 클래스로 구현한 것이다. class name은 TwoLayerNet으로 구성요소를 하나씩 알아보자. def __init__함수로 input_size, hidden_size, output_size, weight_init_std=0.01로 초기화한다. self.params로 W1,b1,W2,b2 (weight,bias) 을 입력값에…