모두를 위한 딥러닝 시즌2 - TensorFlow
Lab-05-2 Logistic Regression
sososoy
2021. 10. 27. 17:43
<Cost Function>
θ = w
좌측 그림의 랜덤한 w 값을 조절하여 cost를 0으로 만들어 우측 그림의 최적의 값으로 만드는 것.
convex(구불구불한 그래프 형태) 값이어야 우리가 원하는 값을 가질 수 있음.
같은 로그 함수를 y가 1인지 0인지에 따라 반전시키고, 이 두 함수를 합친 식이 cost 함수이다.
이를 Tensorflow의 reduce 함수를 통해 차원을 낮추어 값을 얻을 수 있다.
convex 형태의 cost 함수로 어떻게 0에 다다르도록 최소화를 할 수 있는가?
α: learning rate
∂/∂θ: gradient
J(θ): cost
학습을 통해 경사를 따라 점점 내려가고, 지속적으로 업데이트 되는 모델 값을 토대로 결국 값을 찾을 수 있다.
출처: https://youtu.be/BrgA_KgLOeg