๊ด€๋ฆฌ ๋ฉ”๋‰ด

๋ชฉ๋ก๐Ÿค– AI/Deep Learning (9)

Done is Better Than Perfect

[๋”ฅ๋Ÿฌ๋‹] 8. RNN

[ ๋ชฉ์ฐจ ] 1. ์ˆœ์ฐจ๋ฐ์ดํ„ฐ๋ž€?2. Recurrent Neural Network3. Vanilla RNN (๊ฐ€์žฅ ๊ฐ„๋‹จํ•œ ํ˜•ํƒœ์˜ RNN ๋ชจ๋ธ)1. ์ˆœ์ฐจ ๋ฐ์ดํ„ฐ๋ž€?RNN(Recurrent Neural Network) : ์‹œ๊ณ„์—ด ๋ฐ์ดํ„ฐ ๊ฐ™์€ ์ˆœ์ฐจ ๋ฐ์ดํ„ฐ(Sequential Data) ์ฒ˜๋ฆฌ๋ฅผ ์œ„ํ•œ ๋ชจ๋ธ  ์ˆœ์ฐจ ๋ฐ์ดํ„ฐ(Sequential Data) - ์˜ˆ์‹œ: ์‹œ๊ณ„์—ด ๋ฐ์ดํ„ฐ, ์ž์—ฐ์–ด ๋ฐ์ดํ„ฐ์ˆœ์„œ(Order)๋ฅผ ๊ฐ€์ง€๊ณ  ๋‚˜ํƒ€๋‚˜๋Š” ๋ฐ์ดํ„ฐ๋ฐ์ดํ„ฐ ๋‚ด ๊ฐ ๊ฐœ์ฒด๊ฐ„์˜ ์ˆœ์„œ๊ฐ€ ์ค‘์š”์˜ˆ) ๋‚ ์งœ์— ๋”ฐ๋ฅธ ๊ธฐ์˜จ ๋ฐ์ดํ„ฐ, ๋‹จ์–ด๋“ค๋กœ ์ด๋ฃจ์–ด์ง„ ๋ฌธ์žฅ, DNA ์—ผ๊ธฐ ์„œ์—ด, ์ƒ˜ํ”Œ๋ง๋œ ์†Œ๋ฆฌ ์‹ ํ˜ธ ๋“ฑ์‹œ๊ณ„์—ด ๋ฐ์ดํ„ฐ (Time-Series Data) ์ผ์ •ํ•œ ์‹œ๊ฐ„ ๊ฐ„๊ฒฉ์„ ๊ฐ€์ง€๊ณ  ์–ป์–ด๋‚ธ ๋ฐ์ดํ„ฐ์˜ˆ) ์—ฐ๋„๋ณ„ ๋Œ€ํ•œ๋ฏผ๊ตญ์˜ ํ‰๊ท  ๊ธฐ์˜จ, ์‹œ๊ฐ„๋ณ„ ์ฃผ์‹ ๊ฐ€๊ฒฉ ๊ธฐ๋ก ๋“ฑ์ž์—ฐ์–ด ๋ฐ..

๐Ÿค– AI/Deep Learning 2024. 7. 1. 18:55
[๋”ฅ๋Ÿฌ๋‹] 6. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์˜ ๋ฌธ์ œ์  pt.3 : ๊ณผ์ ํ•ฉ

4. ๊ณผ์ ํ•ฉ ๋ฌธ์ œ์™€ ๋ฐฉ์ง€ ๊ธฐ๋ฒ• ๊ณผ์ ํ•ฉ ๋ฌธ์ œ (overfitting) : ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด ํ•™์Šต ๋ฐ์ดํ„ฐ์— ๊ณผํ•˜๊ฒŒ ์ ํ•ฉํ•œ ์ƒํƒœ.                                             ํ•™์Šต ๋ฐ์ดํ„ฐ๊ฐ€ ์•„๋‹Œ ๋‹ค๋ฅธ ๋ฐ์ดํ„ฐ์—์„œ ์ •ํ™•ํ•œ ์˜ˆ์ธก์„ ์ƒ์„ฑํ•˜์ง€ ๋ชปํ•จ (์ผ๋ฐ˜ํ™” ํ•˜์ง€ ๋ชปํ•จ)๊ณผ์ ํ•ฉ ๋ฐœ์ƒ ์›์ธ : ๋ฐ์ดํ„ฐ์˜ ํผ์ง„ ์ •๋„, ์ฆ‰ ๋ถ„์‚ฐ(variance)์ด ๋†’์€ ๊ฒฝ์šฐ๋„ˆ๋ฌด ๋งŽ์ด ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ ํ•™์Šต์‹œํ‚จ ๊ฒฝ์šฐ (epochs๊ฐ€ ๋งค์šฐ ํฐ ๊ฒฝ์šฐ)ํ•™์Šต์— ์‚ฌ์šฉ๋œ ํŒŒ๋ผ๋ฏธํ„ฐ๊ฐ€ ๋„ˆ๋ฌด ๋งŽ์€ ๊ฒฝ์šฐ๋ฐ์ดํ„ฐ์— ๋น„ํ•ด ๋ชจ๋ธ์ด ๋„ˆ๋ฌด ๋ณต์žกํ•œ ๊ฒฝ์šฐ๋ฐ์ดํ„ฐ์— ๋…ธ์ด์ฆˆ & ์ด์ƒ์น˜(outlier)๊ฐ€ ๋„ˆ๋ฌด ๋งŽ์€ ๊ฒฝ์šฐ ๊ณผ์ ํ•ฉ ํ˜„์ƒ ๋ฐฉ์ง€ ๊ธฐ๋ฒ• : ์ •๊ทœํ™” (Regularization), ๋“œ๋กญ์•„์›ƒ (Dropout), ๋ฐฐ์น˜ ์ •๊ทœํ™” (Batch Normalization..

๐Ÿค– AI/Deep Learning 2024. 6. 22. 20:28
[๋”ฅ๋Ÿฌ๋‹] 5. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์˜ ๋ฌธ์ œ์  pt.2 : ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค, ๊ฐ€์ค‘์น˜ ์ดˆ๊ธฐํ™” ๋ฐฉ๋ฒ•

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์˜ ๋ฌธ์ œ์ ์œผ๋กœ ์•„๋ž˜์˜ 4๊ฐ€์ง€๊ฐ€ ์žˆ๋‹ค.1. ํ•™์Šต ์†๋„ ๋ฌธ์ œ์™€ ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜2. ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ๋ฌธ์ œ3. ์ดˆ๊ธฐ๊ฐ’ ์„ค์ • ๋ฌธ์ œ4. ๊ณผ์ ํ•ฉ ๋ฌธ์ œ ์ด๋ฒˆ ์žฅ์—์„œ๋Š” 2. ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ๋ฌธ์ œ, 3. ๊ฐ€์ค‘์น˜ ์ดˆ๊ธฐํ™” ์„ค์ • ๋ฌธ์ œ์™€ ์ด๋ฅผ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•œ ๊ธฐ๋ฒ•์— ๋Œ€ํ•ด ์ž์„ธํžˆ ์•Œ์•„๋ณด๋„๋ก ํ•˜๊ฒ ๋‹ค. 2. ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ๋ฌธ์ œ์™€ ๋ฐฉ์ง€ ๊ธฐ๋ฒ• ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค (Vanishing Gradient) ๋ฐœ์ƒ ์›์ธ : ๊ธฐ์šธ๊ธฐ๊ฐ€ 0์ธ ๊ฐ’์„ ์ „๋‹ฌํ•˜๋ฉฐ ์ค‘๊ฐ„ ์ „๋‹ฌ๊ฐ’์ด ์‚ฌ๋ผ์ง€๋Š” ๋ฌธ์ œ๊ธฐ์šธ๊ธฐ๊ฐ€ ์†Œ์‹ค๋˜๋Š” ๋ฌธ์ œ๊ฐ€ ๋ฐ˜๋ณต๋˜๋ฉฐ ํ•™์Šต์ด ์ž˜ ์ด๋ฃจ์–ด์ง€์ง€ ์•Š์Œ ๊นŠ์€ ์ธต์˜ ๋ชจ๋ธ์—์„œ ์—ญ์ „ํŒŒ ์‹œ์— ์ „๋‹ฌ๋˜๋Š” ์†์‹ค ํ•จ์ˆ˜(loss function)์˜ gradient ๊ฐ’์— ํ™œ์„ฑํ™” ํ•จ์ˆ˜์ธ sigmoid ํ•จ์ˆ˜์˜ 0์— ๊ฐ€๊นŒ์šด ๊ธฐ์šธ๊ธฐ ๊ฐ’์ด ๊ณ„์†ํ•ด์„œ ๊ณฑํ•ด์ง€๋ฉด์„œ ๊ฒฐ๊ตญ ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ๊ฐ€ ์ž˜ ์•ˆ๋˜๋Š”..

๐Ÿค– AI/Deep Learning 2024. 6. 12. 17:45
[๋”ฅ๋Ÿฌ๋‹] 4. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์˜ ๋ฌธ์ œ์  pt.1 : ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜

SGD์˜ ํ•œ๊ณ„์  ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์€ ์•„๋ž˜์™€ ๊ฐ™์€ ๋ฌธ์ œ์ ์ด ์žˆ๋‹ค.  1. ํ•™์Šต ์†๋„ ๋ฌธ์ œ์™€ ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜2. ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ๋ฌธ์ œ์™€ ๋ฐฉ์ง€ ๊ธฐ๋ฒ•3. ์ดˆ๊ธฐ๊ฐ’ ์„ค์ • ๋ฌธ์ œ์™€ ๋ฐฉ์ง€ ๊ธฐ๋ฒ•4. ๊ณผ์ ํ•ฉ ๋ฌธ์ œ์™€ ๋ฐฉ์ง€ ๊ธฐ๋ฒ• ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์˜ ๋ฌธ์ œ์ ์— ๋Œ€ํ•ด ์ž์„ธํžˆ ์•Œ์•„๋ณด๊ณ , ์ด๋ฅผ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•ด ๋‚˜์˜จ ๋ฐฉ๋ฒ•๋“ค์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๊ฒ ๋‹ค. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์˜ ๋ฌธ์ œ์ ์‹ค์ƒํ™œ ๋ฌธ์ œ ๋ฐ์ดํ„ฐ์˜ ์ฐจ์›์ด ์ฆ๊ฐ€ํ•˜๊ณ , ๊ตฌ์กฐ๊ฐ€ ๋ณต์žกํ•ด์ง์— ๋”ฐ๋ผ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต์—์„œ ๋งŽ์€ ๋ฌธ์ œ๊ฐ€ ์ดˆ๋ž˜๋œ๋‹ค. 1. ํ•™์Šต ์†๋„ ๋ฌธ์ œ : ๋ฐ์ดํ„ฐ์˜ ๊ฐœ์ˆ˜๊ฐ€ ํญ๋ฐœ์ ์œผ๋กœ ์ฆ๊ฐ€ํ•˜์—ฌ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ํ•™์Šต ์‹œ ์†Œ์š”๋˜๋Š” ์‹œ๊ฐ„๋„ ํ•จ๊ป˜ ์ฆ๊ฐ€ 2. ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ๋ฌธ์ œ (gradient vanishing) : ๋” ๊นŠ๊ณ , ๋„“์€ ๋ง์„ ํ•™์Šต์‹œํ‚ค๋Š” ๊ณผ์ •์—์„œ ์ถœ๋ ฅ๊ฐ’๊ณผ ๋ฉ€์–ด์งˆ์ˆ˜๋ก ํ•™์Šต์ด ์ž˜ ์•ˆ๋˜๋Š” ํ˜„์ƒ ๋ฐœ์ƒ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ..

๐Ÿค– AI/Deep Learning 2024. 6. 10. 21:12
[๋”ฅ๋Ÿฌ๋‹] 3. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ๊ตฌํ˜„ (์„ ํ˜• ํšŒ๊ท€, ๋น„์„ ํ˜• ํšŒ๊ท€ ๋ชจ๋ธ ๊ตฌํ˜„)

' ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ๊ตฌํ˜„ ์ˆœ์„œ' ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค.1. ๋ฐ์ดํ„ฐ์…‹ ์ค€๋น„ํ•˜๊ธฐ2. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ๊ตฌ์ถ•ํ•˜๊ธฐ3. ๋ชจ๋ธ ํ•™์Šต ์‹œํ‚ค๊ธฐ4. ํ‰๊ฐ€ ๋ฐ ์˜ˆ์ธกํ•˜๊ธฐ ์•„๋ž˜์—์„œ๋Š” ๊ฐ ๋‹จ๊ณ„์—์„œ ํ•„์š”ํ•œ ๊ฐœ๋…์„ ์ญ‰ ํ›Œ์–ด๋ณธ ํ›„์—, tensorflow ์ฝ”๋“œ๋กœ ์„ ํ˜• ํšŒ๊ท€์™€ ๋น„์„ ํ˜• ํšŒ๊ท€๋ฅผ ๊ตฌํ˜„ํ•ด๋ณด๊ฒ ๋‹ค.  1. ๋ฐ์ดํ„ฐ์…‹ ์ค€๋น„ํ•˜๊ธฐepoch : ํ•œ ๋ฒˆ์˜ epoch๋Š” ์ „์ฒด ๋ฐ์ดํ„ฐ ์…‹์— ๋Œ€ํ•ด ํ•œ ๋ฒˆ ํ•™์Šต์„ ์™„๋ฃŒํ•œ ์ƒํƒœbatch : ๋‚˜๋ˆ ์ง„ ๋ฐ์ดํ„ฐ์…‹ (๋ณดํ†ต mini-batch๋ผ ํ‘œํ˜„)iteration๋Š” epoch๋ฅผ ๋‚˜๋ˆ„์–ด์„œ ์‹คํ–‰ํ•˜๋Š” ํšŸ์ˆ˜๋ฅผ ์˜๋ฏธํ•จ  2. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ๊ตฌ์ถ•ํ•˜๊ธฐ [ keras ์˜ˆ์‹œ ์ฝ”๋“œ - ์•„๋ž˜ ๋‘๊ฐœ๋Š” ๋™์ผํ•œ ์ฝ”๋“œ์ž„ ]model = tf.keras.models.Sequential([ tf.keras.layers.Dense(10,input_dim=2..

๐Ÿค– AI/Deep Learning 2024. 6. 8. 23:29
[๋”ฅ๋Ÿฌ๋‹] 2. Backpropagation์˜ ํ•™์Šต

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์—์„œ์˜ ํ•™์Šต : loss function์„ ์ตœ์†Œํ™”ํ•˜๊ธฐ ์œ„ํ•ด ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜ (gradient descent ๋“ฑ) ์‚ฌ์šฉ๋”ฅ๋Ÿฌ๋‹์—์„œ๋Š” ์—ญ์ „ํŒŒ(backpropagation)์„ ํ†ตํ•ด ๊ฐ ๊ฐ€์ค‘์น˜๋“ค์˜ ๊ธฐ์šธ๊ธฐ๋ฅผ ๊ตฌํ•  ์ˆ˜ ์žˆ์Œbackpropagation ์ •์˜ : ๋ชฉํ‘œ target ๊ฐ’๊ณผ ์‹ค์ œ ๋ชจ๋ธ์ด ์˜ˆ์ธกํ•œ output ๊ฐ’์ด ์–ผ๋งˆ๋‚˜ ์ฐจ์ด๋‚˜๋Š”์ง€ ๊ตฌํ•œ ํ›„, ์˜ค์ฐจ ๊ฐ’์„ ๋‹ค์‹œ ๋’ค๋กœ ์ „ํŒŒํ•ด๊ฐ€๋ฉฐ ๋ณ€์ˆ˜๋“ค์„ ๊ฐฑ์‹ ํ•˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜ 1. Backpropagation์˜ ํ•™์Šต ๋‹จ๊ณ„backpropataion์€ ์ฒด์ธ ๋ฃฐ(chain rule)์„ ์‚ฌ์šฉํ•˜์—ฌ ์†์‹ค ํ•จ์ˆ˜์˜ ๊ธฐ์šธ๊ธฐ๋ฅผ ๊ณ„์‚ฐํ•˜๊ณ , ์ด๋ฅผ ํ†ตํ•ด ๊ฐ€์ค‘์น˜๋ฅผ ์—…๋ฐ์ดํŠธ 1. Forward Propagation์ž…๋ ฅ ๋ฐ์ดํ„ฐ๊ฐ€ ์‹ ๊ฒฝ๋ง์„ ํ†ต๊ณผํ•˜๋ฉด์„œ ๊ฐ ์ธต์—์„œ์˜ ์ถœ๋ ฅ ๊ณ„์‚ฐ๊ฐ ๋‰ด๋Ÿฐ์˜ ์ถœ๋ ฅ์€ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ๊ณ„์‚ฐ๋จ..

๐Ÿค– AI/Deep Learning 2024. 6. 7. 14:59
[๋”ฅ๋Ÿฌ๋‹] 1. Perceptron

9์›” ์„์‚ฌ ์ž…ํ•™ ์ „ ๊นŒ์ง€ ๋ชฉํ‘œ๊ฐ€ ์žˆ๋‹ค.๋”ฅ๋Ÿฌ๋‹ ๋…ผ๋ฌธ์„ ๋ณด๊ณ , ๋…ผ๋ฌธ์„ ์žฌํ˜„(reproduction) ํ•  ์ˆ˜ ์žˆ์„ ๋งŒํผ ์ฝ”๋”ฉ์‹ค๋ ฅ์„ ํ‚ค์šฐ๋Š” ๊ฒƒ์ด๋‹ค.๊ทธ๋™์•ˆ์€ ์ด๋ก  ์ฑ…, ์ˆ˜ํ•™์ฑ…์„ ๋ณด๊ณ  ์ˆ˜์‹์— ๋” ์ต์ˆ™ํ•ด์ ธ ์žˆ๋‹ค๋Š” ๋Š๋‚Œ์„ ๋ฐ›์•˜๋Š”๋ฐ, ์ด์ œ๋Š” ์ฝ”๋”ฉ ๋Šฅ๋ ฅ๋„ ํ‚ค์šฐ๋Š” ๊ฒƒ์ด ์—ฌ๋ฆ„ ๋ฐฉํ•™ ๋™์•ˆ์˜ ๋ชฉํ‘œ์ด๋‹ค.   ๋”ฅ๋Ÿฌ๋‹ : ์ธ๊ณต์‹ ๊ฒฝ๋ง์— ๊ธฐ๋ฐ˜ํ•˜์—ฌ ์ปดํ“จํ„ฐ์—๊ฒŒ ์‚ฌ๋žŒ์˜ ์‚ฌ๊ณ ๋ฐฉ์‹์„ ๊ฐ€๋ฅด์น˜๋Š” ๋ฐฉ๋ฒ•์ธ๊ณต์‹ ๊ฒฝ๋ง์˜ ํŠน์ง• : ๋ชจ๋ธ ์Šค์Šค๋กœ ๋ฐ์ดํ„ฐ์˜ ํŠน์„ฑ์„ ํ•™์Šตํ•˜์—ฌ ์ง€๋„ ํ•™์Šต, ๋น„์ง€๋„ ํ•™์Šต ๋ชจ๋‘ ์ ์šฉ ๊ฐ€๋Šฅ   1. ํผ์…‰ํŠธ๋ก  : ์ดˆ๊ธฐ ํ˜•ํƒœ์˜ ์‹ ๊ฒฝ๋ง   2. ํ™œ์„ฑํ™” ํ•จ์ˆ˜ : ๊ฐ ๋‰ด๋Ÿฐ์˜ ์ถœ๋ ฅ ์‹ ํ˜ธ๋ฅผ ๊ฒฐ์ •์ž…๋ ฅ ์‹ ํ˜ธ๋ฅผ ๋ฐ›์•„๋“ค์—ฌ ๋น„์„ ํ˜• ๋ณ€ํ™˜ ์ˆ˜ํ–‰, ๋ณ€ํ™˜๋œ ์ถœ๋ ฅ์„ ๋‹ค์Œ ์ธต์œผ๋กœ ์ „๋‹ฌ.ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋Š” ์‹ ๊ฒฝ๋ง์˜ ํ•™์Šต ๋Šฅ๋ ฅ๊ณผ ์„ฑ๋Šฅ์— ํฐ ์˜ํ–ฅ์„ ์คŒ. ํ™œ์„ฑํ™” ํ•จ์ˆ˜์˜ ์—ญํ•  :  ๋น„์„ ํ˜•..

๐Ÿค– AI/Deep Learning 2024. 6. 5. 21:34