ML lab 03 DeepLearning

이전에 cost  함수에 대해 배웠다.
그렇다면 어떻게 cost 최소화를 할 수 있는가?
코세라에서는 미분값을 0으로 하는 방법과 gradient descent 가 있었다.

강의에서는 h hat = W*x 로 두어 cost함수를 간단히 해서 계산하였다.


cost 함수의 그래프는 어떻게 그려질까에 대해 알려주신다.

하지만 위와 같은 cost 함수는 아주 간단한 함수이며,
차원이 늘어날수록 눈으로 지각하기 힘들것이다.
여기서 gradient descent 를 제시하신다.
기울기 값을 기준으로 움직여 결국 최소점에 도달하게 되는 알고리즘이다.


코세라와 다르게 여기는 미분을 의식해서 2m 을 나누어 간단히 했다.
위 과정을 통해 cost를 최소화할 수 있다.

댓글

이 블로그의 인기 게시물

윈도우 설치에서 파티션 설정 오류(NTFS)

[exploit writing] 1_스택 기반 오버플로우 (1) First

하둡 설치 오류 정리