반응형
○ 머신러닝 알고리즘의 종류
- Supervised Learning(지도학습) : 회귀(Regression), 분류(Classification)
- Unsupervised Learning(비지도학습)
- 기타 : Reinforcement learning, recommender systems
○ 비용함수(Cost Function)
- 가설 : hΘ(x)=Θ0+Θ1x
- 모수 : Θ0,Θ1
- 비용함수 : J(Θ0,Θ1)=12m∑mi=1(hΘ(xi)−y(i)))2
- 목표 : minimizeΘ0,Θ1J(Θ0,Θ1)
○ 경사하강법(Gradient descent) - 독립변수가 1개인 경우
- 임의의 Θ0,Θ1에서 시작하여 모수의 값을 변화시키며, 비용함수가 최솟값을 보일 때의 Θ0,Θ1 의 값을 산출
Θj:=Θj−α∂∂ΘjJ(Θ0,Θ1) (forj=0andj=1) 에서
Θ0:=Θ0−α1m∑mi=1(hΘ(xi)−y(i)))
Θ1:=Θ1−α1m∑mi=1(hΘ(xi)−y(i)))⋅xi
○ 학습률(α, learning rate)
- 학습률이 너무 작으면 학습이 더디게 됨
- 학습률이 너무 크면 cost function(비용함수)의 최솟값을 찾을수 없음. 수렴X & 발산
- 학습률의 값을 조정하더라도 local minimum에만 도달할 수 있음, global minimum이라는 보장 X (주의)
반응형
'각종공부 > 머신러닝' 카테고리의 다른 글
머신러닝 공부 4편 - 정규화된 로지스틱 회귀분석 (0) | 2020.06.15 |
---|---|
머신러닝 공부 3편 - 로지스틱 회귀분석에서의 비용함수, 경사하강법 | Machine Learning(Coursera, Andrew Ng) (0) | 2020.06.14 |
머신러닝 공부 요약 정리 2편 - 다항회귀모델 경사하강법, 정규방정식 | Machine Learning(Coursera, Andrew Ng) (0) | 2020.06.07 |
머신러닝 공부를 수월하게 해주는 영어 단어 모음 | Machine Learning(Coursera, Andrew Ng) (0) | 2020.05.30 |
댓글