반응형 오차제곱합1 머신러닝 공부 요약 정리 2편 - 다항회귀모델 경사하강법, 정규방정식 | Machine Learning(Coursera, Andrew Ng) ○ 다항 선형 회귀모델(Linear Regression with multiple variables) $h_{\Theta }(x) = \Theta _{0}+\Theta _{1}x+\Theta _{2}x_{2}+\cdot \cdot \cdot +\Theta _{n}x_{n}$ 을 행렬로 표시하면 다음과 같다. ○ 다항변수에서의 경사하강법(Gradient decent for multiple variables) ○ 정규방정식(Normal equation) $\Theta = (X^{'}X)^{-1}X^{'}y$ → 모든 $j$에 대하여 $ \frac{\partial}{\partial\Theta _{_{j}}}J(\Theta )=\cdots =0$을 구하는 케이스 → 증명 ○ 경사하강법(Gradient Descen.. 2020. 6. 7. 이전 1 다음 반응형