반응형

○ 다항 선형 회귀모델(Linear Regression with multiple variables)
hΘ(x)=Θ0+Θ1x+Θ2x2+⋅⋅⋅+Θnxn
을 행렬로 표시하면 다음과 같다.

○ 다항변수에서의 경사하강법(Gradient decent for multiple variables)


○ 정규방정식(Normal equation)
Θ=(X′X)−1X′y
→ 모든 j에 대하여 ∂∂ΘjJ(Θ)=⋯=0을 구하는 케이스
→ 증명


○ 경사하강법(Gradient Descent) VS 정규방정식(Normal Equation)
경사하강법 | 정규방정식 |
α(학습률) 선택이 필요하다. | $\alpha $(학습률) 선택이 필요없다. |
많은 반복이 필요하다. | 반복할 필요 X |
(XX′)에 대한 역행렬 계산이 필요하다. | |
n이 클 때 잘 작동한다. (일반적으로 n>10000일 때.) |
n이 크면 느려진다. (역행렬 계산 때문) |
반응형
'각종공부 > 머신러닝' 카테고리의 다른 글
머신러닝 공부 4편 - 정규화된 로지스틱 회귀분석 (0) | 2020.06.15 |
---|---|
머신러닝 공부 3편 - 로지스틱 회귀분석에서의 비용함수, 경사하강법 | Machine Learning(Coursera, Andrew Ng) (0) | 2020.06.14 |
머신러닝 공부를 수월하게 해주는 영어 단어 모음 | Machine Learning(Coursera, Andrew Ng) (0) | 2020.05.30 |
머신러닝 공부 요약 정리 1편 - 비용함수, 학습률 | Machine Learning(Coursera, Andrew Ng) (0) | 2020.05.29 |
댓글