์ผ | ์ | ํ | ์ | ๋ชฉ | ๊ธ | ํ |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Machine learning
- ์ ๋ฝ ๊ตํํ์
- Deeplearning
- ์๊ทน์ฌ
- ์ต์์ ๊ณฑ๋ฒ
- gradient descent
- ๊ตํํ์
- ์ด์ฐจ์ ์ง
- fluent python
- ์ฒญ์ถ ํ์ดํ
- ์ค์คํธ๋ฆฌ์
- 2022๋
- ํน๋ณ ๋ฉ์๋
- cost function
- ๋ฅ๋ฌ๋
- special method
- ์ต๋๊ณต์ฝ์
- ์ ํํ๊ท
- ์ต์๊ณต๋ฐฐ์
- Linear Regression
- anaconda ๊ฐ์ํ๊ฒฝ
- ๋ฏธ๋์์ ํด์ธ๊ตํ
- ๋ฏธ๋์์ ์ฅํ์
- set method
- ๋์23์ด
- ์ ๋ฝ
- Andrew ng
- set add
- m1 anaconda ์ค์น
- Python
- Today
- Total
๋ชฉ๋ก๐ค AI/Deep Learning (9)
Done is Better Than Perfect
Vanilla RNN์ ๋จ์ ์ ํด๊ฒฐํ๊ธฐ ์ํด ์ ์๋ ๋ชจ๋ธ์ธ LSTM๊ณผ GRU์ ๋ํด ์์๋ณด๊ฒ ๋ค.LSTM๊ณผ GRU๋ ๋ด๋ถ ์ฐ์ฐ ๋ฐฉ์๋ง Vanilla RNN๊ณผ ๋ค๋ฅด๋ค. ์ฆ, ์ ๋ ฅ๊ฐ๊ณผ ์ถ๋ ฅ๊ฐ์ Vanilla RNN์ ๋์ผํ๊ฒ ์ฌ์ฉํ๋ฉด ๋๋ค. [ ๋ชฉ์ฐจ ]1. LSTM ์๊ฐ2. GRU ์๊ฐ3. RNN ๋ชจ๋ธ์ ํ์ฉ1. LSTMVanilla RNN์ ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ณ ์ ๋ฑ์ฅLong Short Term Memory(์ฅ๋จ๊ธฐ ๋ฉ๋ชจ๋ฆฌ)์ ์ฝ์ → ์ฅ๊ธฐ ์์กด์ฑ๊ณผ ๋จ๊ธฐ ์์กด์ฑ์ ๋ชจ๋ ๊ธฐ์ตํ ์ ์์์๋ก ๊ณ์ฐ๋ hidden state $h_t$ ๋ฅผ ์ถ๋ ฅ๊ฐ $y_t$ ์ผ๋ก๋ ์ฌ์ฉLSTM์ ๊ตฌ์ฑ์์ : cell state, forget gate, input gate, output gate LSTM์ ๊ตฌ์ฑ์์ Cell ..
[ ๋ชฉ์ฐจ ] 1. ์์ฐจ๋ฐ์ดํฐ๋?2. Recurrent Neural Network3. Vanilla RNN (๊ฐ์ฅ ๊ฐ๋จํ ํํ์ RNN ๋ชจ๋ธ)1. ์์ฐจ ๋ฐ์ดํฐ๋?RNN(Recurrent Neural Network) : ์๊ณ์ด ๋ฐ์ดํฐ ๊ฐ์ ์์ฐจ ๋ฐ์ดํฐ(Sequential Data) ์ฒ๋ฆฌ๋ฅผ ์ํ ๋ชจ๋ธ ์์ฐจ ๋ฐ์ดํฐ(Sequential Data) - ์์: ์๊ณ์ด ๋ฐ์ดํฐ, ์์ฐ์ด ๋ฐ์ดํฐ์์(Order)๋ฅผ ๊ฐ์ง๊ณ ๋ํ๋๋ ๋ฐ์ดํฐ๋ฐ์ดํฐ ๋ด ๊ฐ ๊ฐ์ฒด๊ฐ์ ์์๊ฐ ์ค์์) ๋ ์ง์ ๋ฐ๋ฅธ ๊ธฐ์จ ๋ฐ์ดํฐ, ๋จ์ด๋ค๋ก ์ด๋ฃจ์ด์ง ๋ฌธ์ฅ, DNA ์ผ๊ธฐ ์์ด, ์ํ๋ง๋ ์๋ฆฌ ์ ํธ ๋ฑ์๊ณ์ด ๋ฐ์ดํฐ (Time-Series Data) ์ผ์ ํ ์๊ฐ ๊ฐ๊ฒฉ์ ๊ฐ์ง๊ณ ์ป์ด๋ธ ๋ฐ์ดํฐ์) ์ฐ๋๋ณ ๋ํ๋ฏผ๊ตญ์ ํ๊ท ๊ธฐ์จ, ์๊ฐ๋ณ ์ฃผ์ ๊ฐ๊ฒฉ ๊ธฐ๋ก ๋ฑ์์ฐ์ด ๋ฐ..
1. ์ด๋ฏธ์ง์ Convolution ์ฐ์ฐ ๊ธฐ์กด์ ๋ฅ๋ฌ๋์์ ์ฌ์ฉํ๋ Fully-connected Layer๋ 1์ฐจ์ ๋ฐ์ดํฐ (์ ํ ๋ฐ์ดํฐ)๋ฅผ input์ผ๋ก ์๊ตฌํจ์ด๋ฏธ์ง๋ฅผ ๋จ์ํ๊ฒ 1์ฐจ์์ผ๋ก ๋ฐ๊พธ๋ฉด 2์ฐจ์ ์์์ ๊ฐ์ง๋ ์ ๋ณด (์ฌ๋ฌผ ๊ฐ์ ๊ฑฐ๋ฆฌ ๊ด๊ณ, ์์ ๋ณํ ๋ฑ)๋ฅผ ํฌ๊ธฐํด์ผ ํจ์ฆ, ๊ณต๊ฐ ์ ๋ณด (spatial information)๊ฐ ๋ฌด๋์ง (-> FC layer๋ก ์ด๋ฏธ์ง ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ ์ ์์)๋ฐ๋ผ์ ์ด๋ฏธ์ง ์ฒ๋ฆฌ์ ํนํ๋ ๋ฅ๋ฌ๋ ๋ชจ๋ธ ๋ฑ์ฅ -> CNN (Convolutional Neural Network) CNN์ ๋ํ ๊ตฌ์ฑ์์ Convolutional LayerPooling Layer๋ถ๋ฅ๊ธฐ (classifier) : fully-connected layer๋ก ๊ตฌ์ฑ [ Convolution ์ฐ์ฐ ] C..
4. ๊ณผ์ ํฉ ๋ฌธ์ ์ ๋ฐฉ์ง ๊ธฐ๋ฒ ๊ณผ์ ํฉ ๋ฌธ์ (overfitting) : ์๊ณ ๋ฆฌ์ฆ์ด ํ์ต ๋ฐ์ดํฐ์ ๊ณผํ๊ฒ ์ ํฉํ ์ํ. ํ์ต ๋ฐ์ดํฐ๊ฐ ์๋ ๋ค๋ฅธ ๋ฐ์ดํฐ์์ ์ ํํ ์์ธก์ ์์ฑํ์ง ๋ชปํจ (์ผ๋ฐํ ํ์ง ๋ชปํจ)๊ณผ์ ํฉ ๋ฐ์ ์์ธ : ๋ฐ์ดํฐ์ ํผ์ง ์ ๋, ์ฆ ๋ถ์ฐ(variance)์ด ๋์ ๊ฒฝ์ฐ๋๋ฌด ๋ง์ด ํ์ต ๋ฐ์ดํฐ๋ฅผ ํ์ต์ํจ ๊ฒฝ์ฐ (epochs๊ฐ ๋งค์ฐ ํฐ ๊ฒฝ์ฐ)ํ์ต์ ์ฌ์ฉ๋ ํ๋ผ๋ฏธํฐ๊ฐ ๋๋ฌด ๋ง์ ๊ฒฝ์ฐ๋ฐ์ดํฐ์ ๋นํด ๋ชจ๋ธ์ด ๋๋ฌด ๋ณต์กํ ๊ฒฝ์ฐ๋ฐ์ดํฐ์ ๋ ธ์ด์ฆ & ์ด์์น(outlier)๊ฐ ๋๋ฌด ๋ง์ ๊ฒฝ์ฐ ๊ณผ์ ํฉ ํ์ ๋ฐฉ์ง ๊ธฐ๋ฒ : ์ ๊ทํ (Regularization), ๋๋กญ์์ (Dropout), ๋ฐฐ์น ์ ๊ทํ (Batch Normalization..
๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ์ต์ ๋ฌธ์ ์ ์ผ๋ก ์๋์ 4๊ฐ์ง๊ฐ ์๋ค.1. ํ์ต ์๋ ๋ฌธ์ ์ ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ2. ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ 3. ์ด๊ธฐ๊ฐ ์ค์ ๋ฌธ์ 4. ๊ณผ์ ํฉ ๋ฌธ์ ์ด๋ฒ ์ฅ์์๋ 2. ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ , 3. ๊ฐ์ค์น ์ด๊ธฐํ ์ค์ ๋ฌธ์ ์ ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํ ๊ธฐ๋ฒ์ ๋ํด ์์ธํ ์์๋ณด๋๋ก ํ๊ฒ ๋ค. 2. ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ ์ ๋ฐฉ์ง ๊ธฐ๋ฒ ๊ธฐ์ธ๊ธฐ ์์ค (Vanishing Gradient) ๋ฐ์ ์์ธ : ๊ธฐ์ธ๊ธฐ๊ฐ 0์ธ ๊ฐ์ ์ ๋ฌํ๋ฉฐ ์ค๊ฐ ์ ๋ฌ๊ฐ์ด ์ฌ๋ผ์ง๋ ๋ฌธ์ ๊ธฐ์ธ๊ธฐ๊ฐ ์์ค๋๋ ๋ฌธ์ ๊ฐ ๋ฐ๋ณต๋๋ฉฐ ํ์ต์ด ์ ์ด๋ฃจ์ด์ง์ง ์์ ๊น์ ์ธต์ ๋ชจ๋ธ์์ ์ญ์ ํ ์์ ์ ๋ฌ๋๋ ์์ค ํจ์(loss function)์ gradient ๊ฐ์ ํ์ฑํ ํจ์์ธ sigmoid ํจ์์ 0์ ๊ฐ๊น์ด ๊ธฐ์ธ๊ธฐ ๊ฐ์ด ๊ณ์ํด์ ๊ณฑํด์ง๋ฉด์ ๊ฒฐ๊ตญ ๊ฐ์ค์น ์ ๋ฐ์ดํธ๊ฐ ์ ์๋๋..
SGD์ ํ๊ณ์ ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ์ต์ ์๋์ ๊ฐ์ ๋ฌธ์ ์ ์ด ์๋ค. 1. ํ์ต ์๋ ๋ฌธ์ ์ ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ2. ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ ์ ๋ฐฉ์ง ๊ธฐ๋ฒ3. ์ด๊ธฐ๊ฐ ์ค์ ๋ฌธ์ ์ ๋ฐฉ์ง ๊ธฐ๋ฒ4. ๊ณผ์ ํฉ ๋ฌธ์ ์ ๋ฐฉ์ง ๊ธฐ๋ฒ ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ์ต์ ๋ฌธ์ ์ ์ ๋ํด ์์ธํ ์์๋ณด๊ณ , ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ๋์จ ๋ฐฉ๋ฒ๋ค์ ๋ํด ์์๋ณด๊ฒ ๋ค. ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ์ต์ ๋ฌธ์ ์ ์ค์ํ ๋ฌธ์ ๋ฐ์ดํฐ์ ์ฐจ์์ด ์ฆ๊ฐํ๊ณ , ๊ตฌ์กฐ๊ฐ ๋ณต์กํด์ง์ ๋ฐ๋ผ ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ์ต์์ ๋ง์ ๋ฌธ์ ๊ฐ ์ด๋๋๋ค. 1. ํ์ต ์๋ ๋ฌธ์ : ๋ฐ์ดํฐ์ ๊ฐ์๊ฐ ํญ๋ฐ์ ์ผ๋ก ์ฆ๊ฐํ์ฌ ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ์ต ์ ์์๋๋ ์๊ฐ๋ ํจ๊ป ์ฆ๊ฐ 2. ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ (gradient vanishing) : ๋ ๊น๊ณ , ๋์ ๋ง์ ํ์ต์ํค๋ ๊ณผ์ ์์ ์ถ๋ ฅ๊ฐ๊ณผ ๋ฉ์ด์ง์๋ก ํ์ต์ด ์ ์๋๋ ํ์ ๋ฐ์๊ธฐ์ธ๊ธฐ ์์ค ..
' ๋ฅ๋ฌ๋ ๋ชจ๋ธ ๊ตฌํ ์์' ๋ ๋ค์๊ณผ ๊ฐ๋ค.1. ๋ฐ์ดํฐ์ ์ค๋นํ๊ธฐ2. ๋ฅ๋ฌ๋ ๋ชจ๋ธ ๊ตฌ์ถํ๊ธฐ3. ๋ชจ๋ธ ํ์ต ์ํค๊ธฐ4. ํ๊ฐ ๋ฐ ์์ธกํ๊ธฐ ์๋์์๋ ๊ฐ ๋จ๊ณ์์ ํ์ํ ๊ฐ๋ ์ ์ญ ํ์ด๋ณธ ํ์, tensorflow ์ฝ๋๋ก ์ ํ ํ๊ท์ ๋น์ ํ ํ๊ท๋ฅผ ๊ตฌํํด๋ณด๊ฒ ๋ค. 1. ๋ฐ์ดํฐ์ ์ค๋นํ๊ธฐepoch : ํ ๋ฒ์ epoch๋ ์ ์ฒด ๋ฐ์ดํฐ ์ ์ ๋ํด ํ ๋ฒ ํ์ต์ ์๋ฃํ ์ํbatch : ๋๋ ์ง ๋ฐ์ดํฐ์ (๋ณดํต mini-batch๋ผ ํํ)iteration๋ epoch๋ฅผ ๋๋์ด์ ์คํํ๋ ํ์๋ฅผ ์๋ฏธํจ 2. ๋ฅ๋ฌ๋ ๋ชจ๋ธ ๊ตฌ์ถํ๊ธฐ [ keras ์์ ์ฝ๋ - ์๋ ๋๊ฐ๋ ๋์ผํ ์ฝ๋์ ]model = tf.keras.models.Sequential([ tf.keras.layers.Dense(10,input_dim=2..
๋ฅ๋ฌ๋ ๋ชจ๋ธ์์์ ํ์ต : loss function์ ์ต์ํํ๊ธฐ ์ํด ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ (gradient descent ๋ฑ) ์ฌ์ฉ๋ฅ๋ฌ๋์์๋ ์ญ์ ํ(backpropagation)์ ํตํด ๊ฐ ๊ฐ์ค์น๋ค์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ตฌํ ์ ์์backpropagation ์ ์ : ๋ชฉํ target ๊ฐ๊ณผ ์ค์ ๋ชจ๋ธ์ด ์์ธกํ output ๊ฐ์ด ์ผ๋ง๋ ์ฐจ์ด๋๋์ง ๊ตฌํ ํ, ์ค์ฐจ ๊ฐ์ ๋ค์ ๋ค๋ก ์ ํํด๊ฐ๋ฉฐ ๋ณ์๋ค์ ๊ฐฑ์ ํ๋ ์๊ณ ๋ฆฌ์ฆ 1. Backpropagation์ ํ์ต ๋จ๊ณbackpropataion์ ์ฒด์ธ ๋ฃฐ(chain rule)์ ์ฌ์ฉํ์ฌ ์์ค ํจ์์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ณ์ฐํ๊ณ , ์ด๋ฅผ ํตํด ๊ฐ์ค์น๋ฅผ ์ ๋ฐ์ดํธ 1. Forward Propagation์ ๋ ฅ ๋ฐ์ดํฐ๊ฐ ์ ๊ฒฝ๋ง์ ํต๊ณผํ๋ฉด์ ๊ฐ ์ธต์์์ ์ถ๋ ฅ ๊ณ์ฐ๊ฐ ๋ด๋ฐ์ ์ถ๋ ฅ์ ๋ค์๊ณผ ๊ฐ์ด ๊ณ์ฐ๋จ..
9์ ์์ฌ ์ ํ ์ ๊น์ง ๋ชฉํ๊ฐ ์๋ค.๋ฅ๋ฌ๋ ๋ ผ๋ฌธ์ ๋ณด๊ณ , ๋ ผ๋ฌธ์ ์ฌํ(reproduction) ํ ์ ์์ ๋งํผ ์ฝ๋ฉ์ค๋ ฅ์ ํค์ฐ๋ ๊ฒ์ด๋ค.๊ทธ๋์์ ์ด๋ก ์ฑ , ์ํ์ฑ ์ ๋ณด๊ณ ์์์ ๋ ์ต์ํด์ ธ ์๋ค๋ ๋๋์ ๋ฐ์๋๋ฐ, ์ด์ ๋ ์ฝ๋ฉ ๋ฅ๋ ฅ๋ ํค์ฐ๋ ๊ฒ์ด ์ฌ๋ฆ ๋ฐฉํ ๋์์ ๋ชฉํ์ด๋ค. ๋ฅ๋ฌ๋ : ์ธ๊ณต์ ๊ฒฝ๋ง์ ๊ธฐ๋ฐํ์ฌ ์ปดํจํฐ์๊ฒ ์ฌ๋์ ์ฌ๊ณ ๋ฐฉ์์ ๊ฐ๋ฅด์น๋ ๋ฐฉ๋ฒ์ธ๊ณต์ ๊ฒฝ๋ง์ ํน์ง : ๋ชจ๋ธ ์ค์ค๋ก ๋ฐ์ดํฐ์ ํน์ฑ์ ํ์ตํ์ฌ ์ง๋ ํ์ต, ๋น์ง๋ ํ์ต ๋ชจ๋ ์ ์ฉ ๊ฐ๋ฅ 1. ํผ์ ํธ๋ก : ์ด๊ธฐ ํํ์ ์ ๊ฒฝ๋ง 2. ํ์ฑํ ํจ์ : ๊ฐ ๋ด๋ฐ์ ์ถ๋ ฅ ์ ํธ๋ฅผ ๊ฒฐ์ ์ ๋ ฅ ์ ํธ๋ฅผ ๋ฐ์๋ค์ฌ ๋น์ ํ ๋ณํ ์ํ, ๋ณํ๋ ์ถ๋ ฅ์ ๋ค์ ์ธต์ผ๋ก ์ ๋ฌ.ํ์ฑํ ํจ์๋ ์ ๊ฒฝ๋ง์ ํ์ต ๋ฅ๋ ฅ๊ณผ ์ฑ๋ฅ์ ํฐ ์ํฅ์ ์ค. ํ์ฑํ ํจ์์ ์ญํ : ๋น์ ํ..