Logistic Regression 3

Lab-05-2 Logistic Regression

θ = w 좌측 그림의 랜덤한 w 값을 조절하여 cost를 0으로 만들어 우측 그림의 최적의 값으로 만드는 것. convex(구불구불한 그래프 형태) 값이어야 우리가 원하는 값을 가질 수 있음. 같은 로그 함수를 y가 1인지 0인지에 따라 반전시키고, 이 두 함수를 합친 식이 cost 함수이다. 이를 Tensorflow의 reduce 함수를 통해 차원을 낮추어 값을 얻을 수 있다. convex 형태의 cost 함수로 어떻게 0에 다다르도록 최소화를 할 수 있는가? α: learning rate ∂/∂θ: gradient J(θ): cost 학습을 통해 경사를 따라 점점 내려가고, 지속적으로 업데이트 되는 모델 값을 토대로 결국 값을 찾을 수 있다. 출처: https://youtu.be/BrgA_KgLOe..

Lab-05-1 Logistic Regression

What is Binary(Multi-class) Classification? variable is either 0 or 1 (0: positive / 1: negative) Exam, Spam, Face, Tumor 등의 예시는 분류 기준에 따라 0: positive / 1: negative 이분법적인 값을 가진다. Logistic: 셀 수 있고, 흩어져있다. Linear: 셀 수 없고, 연속적이다. 공부를 많이 할수록 합격률이 높아진다. => 수치형 데이터 특정 값을 넣으면 점선처럼 연속적인 그래프가 나옴 하지만 우리가 원하는 값은 세모와 네모, 이분법적이고 이산적인 그래프가 필요하다. 0과 1을 잘 표현하기 위한 이 g함수 모델을 Hypothesis라고 하면, Hypothesis를 통해 0과 1 사..