Numpy만으로 2층신경망짜기(DNN)

처음부터 하나씩 머릿 속으로 그리고 스케치하며 작동원리를 생각했다. tensor 차원을 다루는 방법을 알았으며 몇 가지 신기한 테크닉 또한 배웠다.

오차역전파를 통한 빠른 학습이 중앙차분으로 코딩한 미분보다 훨씬 빠른 것을 보고 굉장히 놀랬다.

 

풀어야 하는 궁금증 : Affine class에서 Bias를 나타내는 b를 보면 broad cast를 사용한다. mini_batch로 데이터를 받는다면 데이터 1개씩 차례대로 계산되는 것인지 (이게 맞는 것 같음) 아니면 200개를 한 번에 계산하는지 (이렇게 되면 bias가 broadcast 작동으로 공통의 bias를 공유하게 된다 데이터끼리) 알아봐야함.


entire code:

 

result :

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다