Numpy 만으로 신경망구현하기 (일반 기본 DNN)

신경망에 대한 이미지 검색결과

저번에 2층 DNN 구현을 한 것에 이어 일반화하여 hidden layer의 수를 n개 수용할 수 있는 DNN 을 구현했다. 추가된 것으로 활성화 함수로 relu 와 sigmoid 를 선택할 수 있고 L2 regularization 기능이 추가됐다. 또한 가중치들의 초기화로 relu 는 he 초기화, sigmoid 는 xavier 초기화가 된다.

 

 

라이브러리 코드 :

 

 

MNIST 히든레이어 2층 신경망 구현

 

출력 :

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다