Loading [MathJax]/jax/output/CommonHTML/jax.js
본문 바로가기
반응형

각종공부/머신러닝5

머신러닝 공부 4편 - 정규화된 로지스틱 회귀분석 ○ 과적합(Overfitting) 너무 많은 Feature를 가지고 있는 경우, 가설함수가 traning set에는 매우 잘 맞지만 새로운 data에 대해서는 일반화에 실패하는 문제를 일컫는다. ☞ 과적합 문제의 해결 방법 1. Feature의 개수를 줄인다. - 수동으로 사용할 Feature를 선택한다. - 알고리즘을 사용하여 Feature를 선택한다. 2. 정규화(Regularization) - 모든 Feature를 유지하되, Θ의 값을 줄인다. (Θj0) - Feature의 개수가 많아도 y를 잘 예측할 수 있도록 만들어준다. ○ 정규화(Regularization) ☞ 접근방법 $\Theta _{0}+\Theta _{1}x+\Theta _{2.. 2020. 6. 15.
머신러닝 공부 3편 - 로지스틱 회귀분석에서의 비용함수, 경사하강법 | Machine Learning(Coursera, Andrew Ng) ○ 분류(Classification) y{0,1} ··· 0 : negative class, 1 : positive class 기존 선형회귀분석 hΘ(x)=Θ0+Θ1x으로 분류를 할 경우, hΘ(x)는 0 or 1이 되어야 하는데, x 값에 따라 hΘ(x)의 값이 0보다 작아지기도 하고, 1보다 커지기도 하는 문제가 발생한다 따라서 0hΘ(x)1을 만족시키기 위해 시그모이드 함수(Sigmoid Function)을 이용하여 변환을 시켜준다. → g(z)=11+ez → $z\: =\: \T.. 2020. 6. 14.
머신러닝 공부 요약 정리 2편 - 다항회귀모델 경사하강법, 정규방정식 | Machine Learning(Coursera, Andrew Ng) ○ 다항 선형 회귀모델(Linear Regression with multiple variables) hΘ(x)=Θ0+Θ1x+Θ2x2++Θnxn 을 행렬로 표시하면 다음과 같다. ○ 다항변수에서의 경사하강법(Gradient decent for multiple variables) ○ 정규방정식(Normal equation) Θ=(XX)1Xy → 모든 j에 대하여 ΘjJ(Θ)==0을 구하는 케이스 → 증명 ○ 경사하강법(Gradient Descen.. 2020. 6. 7.
머신러닝 공부를 수월하게 해주는 영어 단어 모음 | Machine Learning(Coursera, Andrew Ng) 머신러닝 입문강의로 코세라(Coursera) - Andrew Ng 교수님의 머신러닝 강의가 빠질 수 없는데요, 강의에서 자주 나오는 영어 단어들을 정리해보았습니다. 머신러닝 강의 수강 전 아래 영어 단어 한번 집고 넘어가시면 더 수월하실 거라 생각합니다^^ explicitly 명쾌하게 pervade 퍼지다, 만연하다 slightly 약간, 조금 opponent (게임, 대회 등의)상대, (~에 대한)반대자 discrete 별개의 concrete 구체적인 corresponding ~에 해당하는 attribute 속성, ~의 결과로 보다 denote 의미하다, 나타내다 tragically 비극적으로 just to recap, 간략하게 말하자면, cohensive group 응집력이 강한 집단 relative.. 2020. 5. 30.
머신러닝 공부 요약 정리 1편 - 비용함수, 학습률 | Machine Learning(Coursera, Andrew Ng) ○ 머신러닝 알고리즘의 종류 - Supervised Learning(지도학습) : 회귀(Regression), 분류(Classification) - Unsupervised Learning(비지도학습) - 기타 : Reinforcement learning, recommender systems ○ 비용함수(Cost Function) - 가설 : hΘ(x)=Θ0+Θ1x - 모수 : Θ0,Θ1 - 비용함수 : J(Θ0,Θ1)=12mmi=1(hΘ(xi)y(i)))2 - 목표 : $minimize_{\Thet.. 2020. 5. 29.
반응형