μΌ | μ | ν | μ | λͺ© | κΈ | ν |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- electrochemical models
- cost function
- λ―Έλμμ μ₯νμ
- Andrew ng
- μ²μΆ νμ΄ν
- special method
- 2022λ
- m1 anaconda μ€μΉ
- Deeplearning
- set method
- κ΅ννμ
- Linear Regression
- li-ion
- μ ννκ·
- μ€μ€νΈλ¦¬μ
- λ₯λ¬λ
- μκ·Ήμ¬
- Machine learning
- fatigue fracture
- μ λ½ κ΅ννμ
- λ―Έλμμ ν΄μΈκ΅ν
- anaconda κ°μνκ²½
- set add
- Python
- gradient descent
- νΉλ³ λ©μλ
- λμ23μ΄
- μ λ½
- fluent python
- μ΄μ°¨μ μ§
- Today
- Total
Done is Better Than Perfect
[λ₯λ¬λ] μ ν νκ·μ μ΅μ μ κ³±λ² λ³Έλ¬Έ
λ₯λ¬λμ κ°μ₯ λ§λ¨μμ μ΄λ£¨μ΄μ§λ κ°μ₯ κΈ°λ³Έμ μΈ λκ°μ§ κ³μ° μλ¦¬κ° μλ€.
1. μ ν νκ·(linear regression) 2. λ‘μ§μ€ν± νκ·(logistic regression)
μ€λμ λ¨Όμ μ ννκ·λ₯Ό μμ보λλ‘ νμ!
μ ν νκ· linear regression
μ ννκ·λ μ’ μλ³μ(y)μ ν κ° μ΄μμ λ 립 λ³μ(x1, x2...)μ μ νκ΄κ³λ₯Ό λͺ¨λΈλ§ νλ νκ·λΆμ κΈ°λ²μ΄λ€.
λ 립 λ³μκ° νλμΈ κ²½μ°λ₯Ό λ¨μ μ ννκ·λΌ νκ³ , λ μ΄μμΈ κ²½μ° λ€μ€ μ ννκ·λΌ νλ€.
μ ν νκ·λ μ ν μμΈ‘ ν¨μλ₯Ό μ¬μ©ν΄ νκ·μμ λͺ¨λΈλ§νλ€. μλ €μ§μ§ μμ νλΌλ―Έν°λ λ°μ΄ν°λ₯Ό νμ©νμ¬ μμΈ‘νλ€.
μ΄λ κ² λ§λ€μ΄μ§ νκ·μμ μ ν λͺ¨λΈμ΄λΌκ³ νλ€.
μ νμ λ€μκ³Ό κ°μ μΌμ°¨ν¨μμ ννλ₯Ό λλ€.
y = ax + b
μ ν νκ·μ λͺ©νλ μκ³ μλ λ°μ΄ν°(x,y)λ‘ μλ €μ§μ§ μμ λ°μ΄ν°(a,b)λ₯Ό μμΈ‘νλ κ²μ΄λ€.
κΈ°μ‘΄ λ°μ΄ν°λ₯Ό κΈ°λ°μΌλ‘ μ νν μ μ 그리기 μν΄μλ κΈ°μΈκΈ° aμ yμ νΈ bλ₯Ό μμμΌ νλ€.
a,b κ°μ μ»κΈ° μν΄ κ°μ₯ λ§μ΄ μ¬μ©λλ λ°©λ²μ μ΅μμ κ³±λ²μ΄λ€.
μ΅μ μ κ³±λ² method of least square
μ΅μ μ κ³±λ²μ μ΄λ€ κ³μ ν΄λ°©μ μμ κ·Όμ¬μ μΌλ‘ ꡬνλ λ°©λ²μΌλ‘,
κ·Όμ¬μ μΌλ‘ ꡬνλ €λ ν΄μ μ€μ ν΄μ μ€μ°¨μ μ κ³±μ ν©μ΄ μ΅μκ° λλ ν΄λ₯Ό ꡬνλ λ°©λ²μ΄λ€.
μ΅μ μ κ³±λ² κ³΅μμ μκ³ μ μ©νλ€λ©΄, μ΄λ₯Ό ν΅ν΄ μΌμ°¨ ν¨μμ κΈ°μΈκΈ° μ μ νΈμ λ°λ‘ ꡬν μ μλ€.
μ΅μ μ κ³±λ²μ xκ°μ΄ νλμΌλ μ μ© κ°λ₯νλ€.
xκ°μ΄ μ¬λ¬κ°μΈ λ€μ€ μ ννκ·μ κ²½μ° κ²½μ¬νκ°λ²μ μ΄μ©νλ€.
μ΅μ μ κ³±λ²μ μμμ μ μ κ·Έλ¦¬κ³ μ μ νκ°νμ¬ μμ νλ λ°©λ² μ¬μ©νλ€.
λ°λΌμ, μ£Όμ΄μ§ μ μ μ€μ°¨λ₯Ό νκ°νλ μ€μ°¨νκ° μκ³ λ¦¬μ¦μ΄ νμνλ€.
μ΄λ, μ£Όλ‘ νκ· μ κ³± μ€μ°¨(MSE, mean square error)λ₯Ό μ¬μ©νλ€.
κΈ°μΈκΈ° aλ₯Ό ꡬνλ 곡μμ λ€μκ³Ό κ°λ€.
$$ a = \frac{\sum (x - mean(x))(y - mean(y))}{\sum (x - mean(x))^{2})} $$
yμ νΈμΈ bλ₯Ό ꡬνλ 곡μμ λ€μκ³Ό κ°λ€.
$$ b = mean(y) - (mean(x)*a) $$
μμ μ€λͺ ν κ³Όμ μ ν΅ν΄ μΌμ°¨ν¨μ μ y = ax + bμμ a, bμ κ°μ μ»μ μ μλ€.
μΌμ°¨ν¨μ μμ μλ‘μ΄ xκ°μ λ£μΌλ©΄ μμΈ‘κ°μΈ yλ₯Ό μ μ μλ€.
μ ν νκ· - μν€λ°±κ³Ό, μ°λ¦¬ λͺ¨λμ λ°±κ³Όμ¬μ
λ 립λ³μ 1κ°μ μ’ μλ³μ 1κ°λ₯Ό κ°μ§ μ ν νκ·μ μ ν΅κ³νμμ, μ ν νκ·(η·εεζΈ, μμ΄: linear regression)λ μ’ μ λ³μ yμ ν κ° μ΄μμ λ 립 λ³μ (λλ μ€λͺ λ³μ) Xμμ μ ν μκ΄ κ΄κ³λ₯Ό λͺ¨
ko.wikipedia.org
μ΅μμ κ³±λ² - μν€λ°±κ³Ό, μ°λ¦¬ λͺ¨λμ λ°±κ³Όμ¬μ
λΆμ μ λ€μ κΈ°λ°μΌλ‘ νΈλ₯Έ μ μ 2μ°¨ λ°©μ μ κ·Όμ¬ν΄λ₯Ό ꡬνλ€. μ΅μμ κ³±λ², λλ μ΅μμμΉλ², μ΅μμ κ³±κ·Όμ¬λ², μ΅μμμΉκ·Όμ¬λ²(method of least squares, least squares approximation)μ μ΄λ€ κ³μ ν΄λ°©μ μμ
ko.wikipedia.org
* μ΄ κΈμ μ± 'λͺ¨λμ λ₯ λ¬λ'μ μ°Έκ³ νμλ€.
'π€ AI > κ°λ°κ³΅λΆ' μΉ΄ν κ³ λ¦¬μ λ€λ₯Έ κΈ
[Fluent Python μ€ν°λ] Study Note #1 Data Model (0) | 2021.11.15 |
---|---|
[μκ³ λ¦¬μ¦] μ΅λ 곡μ½μ, μ΅μ 곡배μ (0) | 2021.08.03 |
[μκ³ λ¦¬μ¦] set method (0) | 2021.07.16 |
conda κ°μ νκ²½ μμ±, κ΄λ¦¬ (3) | 2021.07.14 |