Linear regression(선형 회귀)
2020. 8. 5. 23:53ㆍ딥러닝
다음과 같은 문제( 데이터)가 있다고 가정을 해보자.
알고있는 데이터로부터 x와 y사이의 관계를 유츄함으로 새로운 입력에 대한 출력의 값을 우리는 기대할수 있다.
x와 y사이의 관계를 유츄하기 위해서 수학적으로 세우는 식을 머신러닝에서 가설(hypothesis)라구 한다.
H(x)=Wx+b
위의 H(x)에서 H는 Hypothesis를 의미합니다.
W(weight)는 직선의 기울기이고 b(bias)는 절편으로 직선을 표현하는 것이다.
결국 선형회귀는 주어진 데이터로부터 y와 x의 관계를 가장 잘 나타내는 직선을 그리는 일을 말한다.
즉, 보다 정확한 w와 b를 구해서 H(x)를 구하는 것이다.
코스트 함수 : 가설과 실제가 얼마나 다른것 인가
'딥러닝' 카테고리의 다른 글
선형 회귀 -간단 정리 (0) | 2020.08.07 |
---|---|
multi _variable 선형회귀_코드 분석 (0) | 2020.08.07 |
텐서플로우 변수 placd holder (0) | 2020.08.07 |
기본적으로 알아야 할 Tensorflow(텐서플로)의 기본 (0) | 2020.08.06 |
커맨드 창을 이용해서 버전 확인하기 (0) | 2020.08.04 |