Coursera Machine Learning: Regression Final ( week 1 ~ 3 )
모든 Regression 파트가 끝났다. 다음 파트인 분류를 해야하지만 강의가 아직 열리지 않은 관계로 모든 챕터를 정리하고자 한다. 코세라 회귀 부분을 다 정리하고 이제 youtube에서 DeepLeaning 기초 강의 부분에서 회귀 부분을 공부할 것이다. WEEK 1 회귀 부분의 시작이다. 그만큼 기초와 단어에 대해 공부하는 시간이다. 이번 주의 목표는 2가지라고 할 수 있다. 1. ML의 기본 흐름과 기초 2. RSS 의 개념 3. RSS 을 통한 weight 구하기 3-1. Set Gradient = 0 3-2. Gradient Descent 1. ML의 기본 흐름과 기초 강의에서는 house pricing 이라는 주제로 회구 파트를 처음부터 끝까지 이어간다. 그래서 위의 기본 개념을 설명할 때 집에 관한 말이 쓰여있다. y hat , f hat 에 대한 개념을 잘 숙지해야 나중에 헷갈리지 않는다. y 는 진짜 집 가격이고 y hat 은 내가 예측한 집 가격이다. 중요한 건 x는 y값을 결정하는데 영향을 주는 변수이다. 위 그림에서는 집의 크기라는 변수를 두었다. 변수의 갯수가 많아질수록 차원은 커지고 복잡해진다. 2. RSS 개념 ML에서는 cost를 모두 계산한 함수 RSS 함수가 있다. Residual sum of squares 의 줄임말이다. 즉, 예측값과 진짜 값의 차이의 제곱을 모두 더한 값을 갖는다. 식으로 보이면 위와 같다. RSS 는 weight 값들인 w0,w1을 인수로 갖는다. weight 값들이 많아지면 많아질수록 더 많은 w0,w1,w2,...,wn 까지 갖을 수 있다. 그리고 위의 식 중에 대괄호에 묶인 w0-w1xi가 곧 y hat이다. 직관적으로 보면 yi는 진짜 값이고 대괄호에 묶인 값은 y hat이므로 진짜 값과 예측값을 빼고 있다는 것을 알 수 있다. ...