반응형 경사하강법2 머신러닝 공부 3편 - 로지스틱 회귀분석에서의 비용함수, 경사하강법 | Machine Learning(Coursera, Andrew Ng) ○ 분류(Classification) y∈{0,1} ··· 0 : negative class, 1 : positive class 기존 선형회귀분석 hΘ(x)=Θ0+Θ1x으로 분류를 할 경우, hΘ(x)는 0 or 1이 되어야 하는데, x 값에 따라 hΘ(x)의 값이 0보다 작아지기도 하고, 1보다 커지기도 하는 문제가 발생한다 따라서 0≤hΘ(x)≤1을 만족시키기 위해 시그모이드 함수(Sigmoid Function)을 이용하여 변환을 시켜준다. → g(z)=11+e−z → $z\: =\: \T.. 2020. 6. 14. 머신러닝 공부 요약 정리 2편 - 다항회귀모델 경사하강법, 정규방정식 | Machine Learning(Coursera, Andrew Ng) ○ 다항 선형 회귀모델(Linear Regression with multiple variables) hΘ(x)=Θ0+Θ1x+Θ2x2+⋅⋅⋅+Θnxn 을 행렬로 표시하면 다음과 같다. ○ 다항변수에서의 경사하강법(Gradient decent for multiple variables) ○ 정규방정식(Normal equation) Θ=(X′X)−1X′y → 모든 j에 대하여 ∂∂ΘjJ(Θ)=⋯=0을 구하는 케이스 → 증명 ○ 경사하강법(Gradient Descen.. 2020. 6. 7. 이전 1 다음 반응형