Processing math: 100%
본문 바로가기
각종공부/머신러닝

머신러닝 공부 요약 정리 1편 - 비용함수, 학습률 | Machine Learning(Coursera, Andrew Ng)

by 달슬 2020. 5. 29.
반응형

○ 머신러닝 알고리즘의 종류

 - Supervised Learning(지도학습) : 회귀(Regression), 분류(Classification)

 - Unsupervised Learning(비지도학습)

 - 기타 : Reinforcement learning, recommender systems

 

○ 비용함수(Cost Function)

 - 가설 : hΘ(x)=Θ0+Θ1x

 - 모수 : Θ0,Θ1

 - 비용함수 : J(Θ0,Θ1)=12mmi=1(hΘ(xi)y(i)))2

 - 목표 : minimizeΘ0,Θ1J(Θ0,Θ1)

 

○ 경사하강법(Gradient descent) - 독립변수가 1개인 경우

 - 임의의 Θ0,Θ1에서 시작하여 모수의 값을 변화시키며, 비용함수가 최솟값을 보일 때의 Θ0,Θ1 의 값을 산출

 

Θj:=ΘjαΘjJ(Θ0,Θ1)         (forj=0andj=1) 에서

Θ0:=Θ0α1mmi=1(hΘ(xi)y(i)))

Θ1:=Θ1α1mmi=1(hΘ(xi)y(i)))xi

 

○ 학습률(α, learning rate)

 - 학습률이 너무 작으면 학습이 더디게 됨

 - 학습률이 너무 크면 cost function(비용함수)의 최솟값을 찾을수 없음. 수렴X & 발산

 - 학습률의 값을 조정하더라도 local minimum에만 도달할 수 있음, global minimum이라는 보장 X (주의)

 

 

 

반응형

댓글