본문 바로가기
Drawing (AI)/Google

Google ML crash course (3)

by 생각하는 이상훈 2022. 7. 23.
728x90

Reducing Loss

Loss를 줄이기위해 Gradient descent 과정을 통해 algorithm을 수정한다.

이때 learning rate가 너무 작으면 loss가 최소인점을 찾는데까지 너무 많은 step을 밟아야한고

learning rate가 너무 크면 정확도가 떨어져서 overshooting되어 loss가 최소인점을 크게 벗어날 수 있다.

Too many steps
Too high learning rate

 

 

Appropriate learning rate

 

Course에서 제공된 프로그램을 통하여 Learning rate가 0.05일때, 0.6일때, 0.1일때를

각각 실행시켜보면서 직접확인해 보았다.


 

728x90

'Drawing (AI) > Google' 카테고리의 다른 글

Google ML crash course (6)  (0) 2023.02.27
Google ML crash course (5)  (0) 2023.02.25
Google ML crash course (4)  (0) 2022.12.26
Google ML Crash Course (2)  (0) 2022.07.23
Google ML Crash Course (1)  (0) 2022.07.20