M.L (p.112)

mean squared error로

신경망을 학습시키는 방법으로

그 값이 작을수록 Error가 적다는 뜻으로 해석할 수 있다.

다음 코드는 cross entropy error로

위의 함수이며 p(x) 는 정답레이블  q(x) 는 신경망의 출력이다. 이 때 p(x) 정답레이블은 one_hot_encoding 되어있어 0,1로 구성되어 있어 결과적으로 나오는 값은 정답레이블에 대응하는 신경망의 출력 값의 연산 값이 된다.

위 결과 값의 그래프이며,

신경망의 출력 값이 정답레이블과 일치하는 확률이 높을 수록 함수 값은 0에 가까워지며  반대로 멀어질수록 – 무한대로 작아진다.

이처럼 음의 무한대로 작아지는 값에 의해 컴퓨터가 -inf로 출력을 하게되는 문제가 발생하는데 위의 코드에서 처럼 delta 값 (아주 작은 10의 -7승)을 넣어 이를 방지한다.

이처럼 출력 결과 정답에 근접한 값은 0.5를 정답에 비교적 멀리 있는 값은 2.3을 출력해주는 것을 볼 수 있다.

일반적으로 신경망을 학습시킬때 사용하는 loss function은 이 두 가지가 대표적이다.

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다