ML lab 03 DeepLearning
이전에 cost 함수에 대해 배웠다.
그렇다면 어떻게 cost 최소화를 할 수 있는가?
코세라에서는 미분값을 0으로 하는 방법과 gradient descent 가 있었다.
강의에서는 h hat = W*x 로 두어 cost함수를 간단히 해서 계산하였다.
cost 함수의 그래프는 어떻게 그려질까에 대해 알려주신다.
하지만 위와 같은 cost 함수는 아주 간단한 함수이며,
차원이 늘어날수록 눈으로 지각하기 힘들것이다.
여기서 gradient descent 를 제시하신다.
기울기 값을 기준으로 움직여 결국 최소점에 도달하게 되는 알고리즘이다.
코세라와 다르게 여기는 미분을 의식해서 2m 을 나누어 간단히 했다.
위 과정을 통해 cost를 최소화할 수 있다.
그렇다면 어떻게 cost 최소화를 할 수 있는가?
코세라에서는 미분값을 0으로 하는 방법과 gradient descent 가 있었다.
강의에서는 h hat = W*x 로 두어 cost함수를 간단히 해서 계산하였다.
cost 함수의 그래프는 어떻게 그려질까에 대해 알려주신다.
하지만 위와 같은 cost 함수는 아주 간단한 함수이며,
차원이 늘어날수록 눈으로 지각하기 힘들것이다.
여기서 gradient descent 를 제시하신다.
기울기 값을 기준으로 움직여 결국 최소점에 도달하게 되는 알고리즘이다.
코세라와 다르게 여기는 미분을 의식해서 2m 을 나누어 간단히 했다.
위 과정을 통해 cost를 최소화할 수 있다.
댓글
댓글 쓰기