모두를 위한 딥러닝 시즌2 - TensorFlow
Lec 6-1 - Softmax Regression: 기본 개념 소개, Lec 6-2: Softmax classifier 의 cost함수
sososoy
2021. 10. 27. 19:28
기존 함수의 단점: return값이 실수 값이 되기 때문에 binary classification에서 가파른 함수가 된다.
=> g(z) 함수(g(z) = 1 / 1+e^-2)가 큰 수를 압축해주어 0과 1 사이의 값으로 바꾸어주어 보완.
Softmax 함수의 결과
- 값의 결과가 0~1 사이의 값
- 전체의 sum이 1이다. (각각의 값을 확률로 봄)
Cost function: 실제의 값과 hypothesis와 차이가 얼마?
=> Cross-Entropy function으로 확인!
<Cross-entropy cost function>