Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 딥러닝
- 오스트리아
- Andrew ng
- 청춘 화이팅
- 2022년
- 최소제곱법
- gradient descent
- set add
- 선형회귀
- cost function
- Linear Regression
- 최소공배수
- set method
- 유럽
- 미래에셋 장학생
- 양극재
- fluent python
- special method
- m1 anaconda 설치
- 교환학생
- 미래에셋해외교환
- Deeplearning
- 최대공약수
- Python
- 특별 메소드
- 나의23살
- Machine learning
- 이차전지
- anaconda 가상환경
- 유럽 교환학생
Archives
- Today
- Total
목록cost function (1)
Done is Better Than Perfect
02. Linear regression with one variable
이번에는 앞서 공부했던 Supervised Learning에서 regression을 더 자세히 살펴볼 것이다. 집 값을 예측하는 Linear Regression을 학습하며 cost function과 gradient descent의 개념도 함께 알아보자. 1. Linear Regression Model 변수가 1개인 linear regression을 univariate linear regression이라 표현한다. 저번에 예시로 학습했던 'Housing Price' 예제에서 사이즈(x)에 따른 집의 가격(y)을 예측할 수 있었다. 위의 그래프에서는 집의 사이즈가 커지면 가격이 높아지는 일차 방정식으로 표현하였다. ** 여기서 직선은 input(feature)와 output(target)의 관계를 나타내는 ..
공부/MachineLearning
2022. 2. 4. 16:40