Logistic Classificaiton

2020. 8. 11. 01:53딥러닝

linear Regression은 좌표상 위치한 데이터를 이어주는 직선(가설)을 그어서 데이터의 위치(값)을 예측하는 모델이었다.

반면에 Lositic(Binary) Classiificaiton은  2가지 중 하나를 찾는 가장 간단한 분류 모델이다.

 

시그모이드_함수

0과 1을 분류해주는 가설의 적당한 그래프를 찾기위해 나온것이 바로 시그모이드 함수이다.

위의 시그모이드 함수의 표현식이다.

하지망 위의 가설로 전에 계산했던 코스트함수를 만들게 되면 밥그릇 같던 함수가 아닌 구불구불한 모습으로 나오게된다.

 

앞장에서 배운 cost함수와 다른점은 여기에서는 시작점에따라 결과값이 달라진다는 점입니다.

Gradient descent방법으로 적용하면 접선의 기울기가 0인지점을 최저점으로 인식하는데 실제 최저점(Global cost minimum)이 아님에도 그점을 최저점(local cost minimum)으로 인식할 수 있게되는 것입니다.

이러한 방법으로는 최저점을 찾는것이 힘들어지기때문에 Cost함수를 바꿔줘야합니다.

 

y가 1일때에는 cost함수가

이고

y가 0일때에는 cost함수가

임을 나타내 줍니다.

 

log를 사용하는 이유는 최저점을 구하기힘든 함수H(x)의 가장 많이 바뀐부분이 e의 사용일것입니다. 이것을 없애주기위하여 e와 상극인 log를 붙여서 Linear 하게 바꾸어주게하기위해서 log를 다는것으로 알고있습니다.

 

시그모이드 함수는 여러가지 좋은점이 많지만 여러번 돌리게 되는경우 0또는1로써 수렴해버리는 치명적인 약점을 가진 구조라서 지금은 거의 사용하지 않는 함수입니다

 

 

맨 아래와 같이 하나의 수식으로 표현될수 있는데 

y데이터가 1이면 뒤에가 사라지게 되며

y데이터가 0이면 앞의 사라지게 된다.



출처: https://boysboy3.tistory.com/89?category=732327 [When will you grow up?]

'딥러닝' 카테고리의 다른 글

딥러닝의 기본 개념  (0) 2020.08.12
퍼모먼스의 측정  (0) 2020.08.11
Classification  (0) 2020.08.10
선형 회귀 -간단 정리  (0) 2020.08.07
multi _variable 선형회귀_코드 분석  (0) 2020.08.07