Done is Better Than Perfect

[λ”₯λŸ¬λ‹] μ„ ν˜• νšŒκ·€μ™€ μ΅œμ†Œ μ œκ³±λ²• λ³Έλ¬Έ

πŸ€– AI/κ°œλ°œκ³΅λΆ€

[λ”₯λŸ¬λ‹] μ„ ν˜• νšŒκ·€μ™€ μ΅œμ†Œ μ œκ³±λ²•

jimingee 2021. 7. 20. 22:03

λ”₯λŸ¬λ‹μ˜ κ°€μž₯ λ§λ‹¨μ—μ„œ μ΄λ£¨μ–΄μ§€λŠ” κ°€μž₯ 기본적인 두가지 계산 원리가 μžˆλ‹€. 

1. μ„ ν˜• νšŒκ·€(linear regression)  2. λ‘œμ§€μŠ€ν‹± νšŒκ·€(logistic regression)

 

μ˜€λŠ˜μ€ λ¨Όμ € μ„ ν˜•νšŒκ·€λ₯Ό μ•Œμ•„λ³΄λ„λ‘ ν•˜μž!

 

 

μ„ ν˜• νšŒκ·€ linear regression

μ„ ν˜•νšŒκ·€λŠ” μ’…μ†λ³€μˆ˜(y)와 ν•œ 개 μ΄μƒμ˜ 독립 λ³€μˆ˜(x1, x2...)의 μ„ ν˜•κ΄€κ³„λ₯Ό λͺ¨λΈλ§ ν•˜λŠ” νšŒκ·€λΆ„μ„ 기법이닀.

독립 λ³€μˆ˜κ°€ ν•˜λ‚˜μΈ 경우λ₯Ό λ‹¨μˆœ μ„ ν˜•νšŒκ·€λΌ ν•˜κ³ , λ‘˜ 이상인 경우 닀쀑 μ„ ν˜•νšŒκ·€λΌ ν•œλ‹€.

 

 

μ„ ν˜• νšŒκ·€λŠ” μ„ ν˜• 예츑 ν•¨μˆ˜λ₯Ό μ‚¬μš©ν•΄ νšŒκ·€μ‹μ„ λͺ¨λΈλ§ν•œλ‹€. μ•Œλ €μ§€μ§€ μ•Šμ€ νŒŒλΌλ―Έν„°λŠ” 데이터λ₯Ό ν™œμš©ν•˜μ—¬ μ˜ˆμΈ‘ν•œλ‹€.

μ΄λ ‡κ²Œ λ§Œλ“€μ–΄μ§„ νšŒκ·€μ‹μ„ μ„ ν˜• λͺ¨λΈμ΄λΌκ³  ν•œλ‹€.

좜처 : μœ„ν‚€λ°±κ³Ό 'μ„ ν˜•νšŒκ·€'

 

μ„ ν˜•μ€ λ‹€μŒκ³Ό 같은 μΌμ°¨ν•¨μˆ˜μ˜ ν˜•νƒœλ₯Ό λˆλ‹€.

y = ax + b

 

μ„ ν˜• νšŒκ·€μ˜ λͺ©ν‘œλŠ” μ•Œκ³  μžˆλŠ” 데이터(x,y)둜 μ•Œλ €μ§€μ§€ μ•Šμ€ 데이터(a,b)λ₯Ό μ˜ˆμΈ‘ν•˜λŠ” 것이닀.

κΈ°μ‘΄ 데이터λ₯Ό 기반으둜 μ •ν™•ν•œ 선을 그리기 μœ„ν•΄μ„œλŠ” 기울기 a와 y절편 bλ₯Ό μ•Œμ•„μ•Ό ν•œλ‹€.

a,b 값을 μ–»κΈ° μœ„ν•΄ κ°€μž₯ 많이 μ‚¬μš©λ˜λŠ” 방법은 μ΅œμ†Œμ œκ³±λ²•μ΄λ‹€.

 

 

 

 

μ΅œμ†Œ μ œκ³±λ²•  method of least square

μ΅œμ†Œ μ œκ³±λ²•μ€ μ–΄λ–€ κ³„μ˜ 해방정식을 κ·Όμ‚¬μ μœΌλ‘œ κ΅¬ν•˜λŠ” λ°©λ²•μœΌλ‘œ,

κ·Όμ‚¬μ μœΌλ‘œ κ΅¬ν•˜λ €λŠ” 해와 μ‹€μ œ ν•΄μ˜ 였차의 μ œκ³±μ˜ 합이 μ΅œμ†Œκ°€ λ˜λŠ” ν•΄λ₯Ό κ΅¬ν•˜λŠ” 방법이닀.

 

좜처 : μœ„ν‚€λ°±κ³Ό 'μ΅œμ†Œμ œκ³±λ²•'

 

μ΅œμ†Œ μ œκ³±λ²• 곡식을 μ•Œκ³  μ μš©ν•œλ‹€λ©΄, 이λ₯Ό 톡해 일차 ν•¨μˆ˜μ˜ 기울기 와 μ ˆνŽΈμ„ λ°”λ‘œ ꡬ할 수 μžˆλ‹€.

μ΅œμ†Œ μ œκ³±λ²•μ€ x값이 ν•˜λ‚˜μΌλ•Œ 적용 κ°€λŠ₯ν•˜λ‹€.

x값이 μ—¬λŸ¬κ°œμΈ 닀쀑 μ„ ν˜•νšŒκ·€μ˜ 경우 κ²½μ‚¬ν•˜κ°•λ²•μ„ μ΄μš©ν•œλ‹€. 

 

 

μ΅œμ†Œ μ œκ³±λ²•μ€ μž„μ˜μ˜ 선을 그리고 선을 ν‰κ°€ν•˜μ—¬ μˆ˜μ •ν•˜λŠ” 방법 μ‚¬μš©ν•œλ‹€.

λ”°λΌμ„œ, 주어진 μ„ μ˜ 였차λ₯Ό ν‰κ°€ν•˜λŠ” μ˜€μ°¨ν‰κ°€ μ•Œκ³ λ¦¬μ¦˜μ΄ ν•„μš”ν•˜λ‹€. 

μ΄λ•Œ, 주둜 평균 제곱 였차(MSE, mean square error)λ₯Ό μ‚¬μš©ν•œλ‹€.

 

 

기울기 aλ₯Ό κ΅¬ν•˜λŠ” 곡식은 λ‹€μŒκ³Ό κ°™λ‹€.

 

$$ a = \frac{\sum (x - mean(x))(y - mean(y))}{\sum (x - mean(x))^{2})} $$

 

 

y절편인 bλ₯Ό κ΅¬ν•˜λŠ” 곡식은 λ‹€μŒκ³Ό κ°™λ‹€.

  $$ b = mean(y) - (mean(x)*a) $$

 

 

 

μ•žμ— μ„€λͺ…ν•œ 과정을 톡해 μΌμ°¨ν•¨μˆ˜ 식 y = ax + bμ—μ„œ a, b의 값을 얻을 수 μžˆλ‹€.

μΌμ°¨ν•¨μˆ˜ 식에 μƒˆλ‘œμš΄ x값을 λ„£μœΌλ©΄ μ˜ˆμΈ‘κ°’μΈ yλ₯Ό μ•Œ 수 μžˆλ‹€. 

 

 

 

μ„ ν˜•νšŒκ·€

 

μ„ ν˜• νšŒκ·€ - μœ„ν‚€λ°±κ³Ό, 우리 λͺ¨λ‘μ˜ 백과사전

λ…λ¦½λ³€μˆ˜ 1κ°œμ™€ μ’…μ†λ³€μˆ˜ 1개λ₯Ό 가진 μ„ ν˜• νšŒκ·€μ˜ 예 ν†΅κ³„ν•™μ—μ„œ, μ„ ν˜• νšŒκ·€(η·šεž‹ε›žζ­Έ, μ˜μ–΄: linear regression)λŠ” 쒅속 λ³€μˆ˜ y와 ν•œ 개 μ΄μƒμ˜ 독립 λ³€μˆ˜ (λ˜λŠ” μ„€λͺ… λ³€μˆ˜) Xμ™€μ˜ μ„ ν˜• 상관 관계λ₯Ό λͺ¨

ko.wikipedia.org

 

 

μ΅œμ†Œμ œκ³±λ²•

 

μ΅œμ†Œμ œκ³±λ²• - μœ„ν‚€λ°±κ³Ό, 우리 λͺ¨λ‘μ˜ 백과사전

뢉은 점듀을 기반으둜 ν‘Έλ₯Έ μ„ μ˜ 2μ°¨ 방정식 근사해λ₯Ό κ΅¬ν•œλ‹€. μ΅œμ†Œμ œκ³±λ²•, λ˜λŠ” μ΅œμ†ŒμžμŠΉλ²•, μ΅œμ†Œμ œκ³±κ·Όμ‚¬λ²•, μ΅œμ†ŒμžμŠΉκ·Όμ‚¬λ²•(method of least squares, least squares approximation)은 μ–΄λ–€ κ³„μ˜ 해방정식을

ko.wikipedia.org

* 이 글은 μ±… 'λͺ¨λ‘μ˜ λ”₯ λŸ¬λ‹'을 μ°Έκ³ ν•˜μ˜€λ‹€. 

 

Comments