[Deep Learning] Deep Neural Network (4)
๐ง๐ป๐ป์ฉ์ด ์ ๋ฆฌ
Neural Networks
Feed-forward
Backpropagation
Deep Neural Network
Optimization
Optimization
์, ์ธ ๋ฒ์งธ ๋ฌธ์ ์ ๋ํด ์๊ธฐํด ๋ด ์๋ค.
์ผ๋ฐ์ ์ผ๋ก optimization์ ๋ํ ๋ฌธ์ ๋ฅผ ์ดํด๋ด ์๋ค.
์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ์ด, ํจ์จ์ฑ์ ์ฆ๊ฐ๋ ์ ํ๋๋ฅผ ๋จ์ด๋จ๋ฆฝ๋๋ค. ์ฆ, ๋์ trade-off ๊ด๊ณ์ด์ฃ .
๊ฒฐ๊ตญ, ํจ์จ์ฑ์ด๋ผ๋ ๊ฒ์ ์๋์ ์ ์ฌํ ๊ฒ์ ๋๋ค.
์ ํ๋๋ฅผ ์ฌ๋ฆฌ๊ณ ์ถ์ผ๋ฉด ์๋๊ฐ ์กฐ๊ธ ๋ ๋ฎ์์ง๊ฒ ๋์ฃ .
๊ทธ๋ฆฌ๊ณ , approximation์ด๋ heuristic ๊ฐ์ algorithm์ ์๊ฐํด๋ด ์๋ค.
์๋๋ฅผ ๋์ด๊ธฐ ์ํด, ์กฐ๊ธ ๋ ํจ์จ์ ์ธ solution์ ์ฐพ๊ธฐ ์ํด ๋ง๋ค์ด์ง ๋ฐฉ๋ฒ๋ค์ ๋๋ค.
๋น์ฐํ ์ ํ๋๋ full-search์ ๊ฐ์ ๊ฒ๋ค์ ๋น๊ตํด์, ๋ ๋ฎ์์ง๊ธฐ ๋ง๋ จ์ ๋๋ค.
๊ทธ๋ฐ๋ฐ, Deep Learning ๋ถ์ผ์์์ Optimization์
ํจ์จ์ฑ์ ์ฆ๊ฐ์ํค๋ ๊ฒ ์์ฒด๊ฐ, ์ฐ๋ฆฌ๊ฐ training์ ๋ ๋ง์ด ํด๋ณผ ์ ์๋ค๋ ๊ฒ์ด ๋๊ณ , ๋ฐ๋ผ์ ์ ํ๋๊ฐ ์ฆ๊ฐํ๋ค๋ ์๋ฏธ๊ฐ ๋ฉ๋๋ค.
1 epoch์ ์ ์ฒด training data๋ฅผ ๋ค ๋ณธ ์ํ์ ๋๋ค.
์ด๊ฒ์ ์ฌ๋ฌ ๋ฒ iterationํ๋ฉฐ ๋ฐ์ดํฐ๋ฅผ ์ฌ๋ฌ ๋ฒ ๋ด์ผ ์ ํ๋๊ฐ ์ฌ๋ผ๊ฐ๋๋ค.
๊ฒฐ๊ตญ Deep Learning์ ์ต๋ํ ํจ์จ์ ์ผ๋ก training data๋ฅผ ํตํด ๋ง์ epoch์ ๋๋ฆฌ๊ณ ์์ต๋๋ค.
๊ทธ๋์ผ, ์กฐ๊ธ ๋ ๋์ ์ฑ๋ฅ์ Model์ ์ป์ ์ ์๋ ๊ฒ์ด์ฃ .
๊ทธ๋์ ์ ๊ทธ๋ํ ๋ ๊ฐ๋ฅผ ์ดํด๋ด ๋๋ค.
epoch์ด ์ฆ๊ฐํ๋ฉฐ, error rate๊ฐ ๋ญ๊ฐ ์๋ ดํ๋ ๋ชจ์ต์ด ๋ณด์ ๋๋ค.
๊ทธ๋ฆฌ๊ณ , gradient norm์ L2 Norm์ ์ฌ์ฉํ๋ฉฐ, gradient์ ์ ๊ณฑ๊ฐ์ ์ฌ์ฉํ์ฃ .
๊ทธ๋์ ์์ ๊ฐ์ด gradient๊ฐ ํฌ๊ฒ ์ฆ๊ฐํ๋ ๋ชจ์ต์ ๋ณด์ ๋๋ค.
gradient์ ํฌ๊ธฐ๊ฐ ํฌ๋ค๋ ์๊ธฐ๋, ๋งค step ๋ง๋ค weight๊ฐ ๋ง์ด update๋๊ณ ์๋ค๋ ์๋ฏธ์ ๋๋ค.
๊ทธ๋ ๋ค๋ฉด,
error rate์ ์๋ ดํ๋ ๊ฒ์ฒ๋ผ ๋ณด์ด์ง๋ง, weight๋ ์์ง๋ ๋ง์ด update ๋๊ณ ์๋ ๊ฒ์ ๋๋ค.
๊ทธ๋ ๋ค๋ฉด, ์ต์ ํ ์์ฒด๋ ์๋ ด์ด ์ ๋์ง๋ง, error rate๊ฐ ์๋ ด์ด ๋ ๊ฒ์ฒ๋ผ ๋ณด์ด๋ ๊ฒ์ ๋๋ค.
์ผ๋จ, ํจ์จ์ ์ธ Algorithm์ผ๋ก ์ต๋ํ ๋ง์ ๋ฐ์ดํฐ๋ฅผ ์ต๋ํ ๋ง์ด epoch ํด๋ณด์๋ ๊ฒ์ ๋๋ค.
Stochastic Gradient Descent
์ฐ๋ฆฌ๊ฐ ์ง๊ธ๊น์ง ์๊ธฐํ Gradient Descent๋ ๋ ๊ฐ์ง ๋ฒ์ ์ด ์์ต๋๋ค.
- Online learning
- Batch learning
Batch learning์ ์ ์ฒด ๋ฐ์ดํฐ๋ฅผ ํ ๋ฒ ๋ค ๋ณด๊ณ weight๋ฅผ ์ ๋ฐ์ดํธํ๋ ๊ฒ์ด๋ผ๋ฉด, online learning์ ๋ฐ์ดํฐ๋ฅผ ํ point๋ง ๋ณด๊ณ updateํฉ๋๋ค.
๊ทธ๋ฐ๋ฐ, ์ฐ๋ฆฌ๊ฐ ์ฃผ๋ก ์ฌ์ฉํ๋ ๊ฒ์, ์ ์ฒด ๋ฐ์ดํฐ์์ small size์ subset data๋ฅผ ๋ฝ์๋ธ ๋ค์, ๊ทธ๊ฒ์ batch ์ผ์ ํ์ต์ ํ๋ ๊ฒ์ด mini batch ๋ฐฉ์์ ๋๋ค.
์ด๋ฌํ ๋ฐฉ์์ด Stochastic Gradient Descent๋ผ๊ณ ๋ณด์๋ฉด ๋ฉ๋๋ค.
๊ทธ๋์ ์ Algorithm์ ์ ํ ๋๋ก, sample์ ๋ฝ์์ ๊ทธ๊ฒ์ training data๋ก ์ฌ์ฉํ์ฌ trainingํฉ๋๋ค.
๊ทธ๋ ๋ค๋ฉด ์ ํ๋๊ฐ ๋จ์ด์ง ๊ฑฐ๋ผ๊ณ ์๊ฐํ ํ ์ง๋ง, iteration์ ๋ง์ด ํ ์๋ก upper bound๊ฐ ์ค์ด๋ญ๋๋ค.
์ต๊ทผ Deep Learning Algorithm๋ค์ SGD๋ฅผ ๊น๊ณ ๊ฐ๋ค๊ณ ๋ณด๋ฉด ๋ฉ๋๋ค.
ํจ์ฌ ํจ์จ์ ์ด์ง๋ง, ์ ํ๋์์๋ ํฐ ์ฐจ์ด๊ฐ ๋์ง ์์ฃ . epoch ์๋ฅผ ์ถฉ๋ถํ ๋๋ ธ๋ค๋ฉด ๋ง์ ๋๋ค.
Momentum
Weight update = current gradient + past gradient
์ด๊ฒ์ NN์ ์๋ ์๋ ๊ฐ๋ ์ ๋๋ค.
์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ์ด weight๊ฐ ์ฌ๊ธฐ ์ ๊ธฐ๋ก update ๋์ง๋ง, ๋นจ๊ฐ์์ฒ๋ผ update๊ฐ ๋๋ ๊ฒ์ ๋๋ค.
์ฆ, ์๋ update ๋์ด์ผ ํ๋ ๊ฒ์ ํ์ฌ momentum์ ํ์ ๋ํด์ฃผ๋ ๊ฒ์ด์ฃ .
Momentum์ด ์๋ค๋ฉด ์ต์ข ์ง์ ๊น์ง ๊ฐ๋ ์๋๊ฐ ํจ์ฌ ๋น ๋ฅด๊ฒ ์ฃ ?
๊ฐ๋จํ๊ฒ ๋ณด๋ฉด, ์์์ ๊ดํธ ์์ ์๋ ๊ฒ์ด gradient์ ๋๋ค.
๊ทธ๋ฅ minibatch gradient๋ฅผ ํํํ ๊ฒ์ ๋๋ค.
step 1 -> v = 0์ด์์ ๊ฒ์ ๋๋ค.
๊ทธ๋์ v = -(์ฑ์ค๋ก )*(gradient) ์ผ ๊ฒ์ ๋๋ค.
๊ทธ๋ฐ๋ฐ,
step 2 ๋ถํฐ๋ v๊ฐ ์์์ ์ ํด์ง ๊ฒ์ด๋ฏ๋ก,
v๊ฐ ๊ณ์ํด์ ๋์ ์ด ๋์ด์ ์ธํ์ ๋ฐ์๋๊ฒ ๋ฉ๋๋ค.
๊ทธ๋ฌ๋, ์ด์ ๊ณผ๊ฑฐ์ ์์ ์ gradient์ผ์๋ก ์ํ๊ฐ ๋ง์ด ๊ณฑํด์ง๊ฒ ๋ฉ๋๋ค.
๊ทธ๋ฐ๋ฐ ์ํ๋ 0 ~ 1 ์ฌ์ด์ ์์ด๋ฏ๋ก, ๊ทธ๋ฌ๋ฏ๋ก, ์ด์ ๊ณผ๊ฑฐ ์์ ์ผ์๋ก ์ํ๊ฐ ๊ณ์ ๊ณฑํด์ ธ ๊ณ์ ์์์ง๋๋ค.
๊ทธ๊ฒ์ "๊ณผ๊ฑฐ ์์ ์ gradient๋ momentum์ ์ข ์ ๊ฒ ๋ฐ์ํ์."๋ผ๋ ์๋ฏธ๋ฅผ ๊ฐ์ง๋๋ค.
์ด๋ฐ technique์ exponential smoothing์ด๋ผ๊ณ ํฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ ๋ ๋ค๋ฅธ ํด๋ฒ์ ์์๋ด ์๋ค.
Adaptive Learning Rate
์ฐ๋ฆฌ์ Hyperparameter ์ํ(๋๋ ์ฑ์ค๋ก )๋ฅผ ์ด๊ธฐ ๊ฐ์์ ๊ณ์ํด์ ์ค์ฌ์ค์ผ๋ก์จ,
๊ฐ์ ์ฌ์ค์ ํฉ๋๋ค.
์ฆ, ์ฒ์์๋ 0.1๋ก ์ค์ ํ๋ค๊ฐ, ๋ชฉํ ์ํ๋ฅผ ์ค์ ํ์ฌ 0.01๊น์ง ์ค์ผ ์ ์๋๋ก ํฉ๋๋ค.
์ ์์์์ ๋ดค ๋ฏ, epoch์ด ๋์ด๋๋ gradient๊ฐ ์ฆ๊ฐํ์ฌ ์๋ ดํ์ง ์๋ ๊ฒฝ์ฐ์ ๋ํด, ์ํ์ ๊ฐ์ ๋งค์ฐ ์๊ฒ ํ์ฌ ์ด์ฐ๋๋ ์๋ ดํ๊ฒ ๋ง๋๋ ๊ฒ์ ๋๋ค.
ํญ์ ์๊ฒํ๋ค๋ ๊ฒ์ ๋์ผํฉ๋๋ค.
๊ทธ๋ฌ๋, large gradient๋ฅผ ์ฌ์ฉํ ๋์๋, learning rate๋ฅผ ์๊ฒ ํจ์ผ๋ก์จ ์๋ ด์ ๋์์ ์ฃผ๊ณ ,
์ด๋ฏธ small gradient๋ฅผ ์ฌ์ฉํ ๋์๋ ์ด๋ฏธ model์ด ์ ํ์ต ์ค์ด๋ฏ๋ก, learning rate๋ฅผ '์๋์ ์ผ๋ก' ํฌ๊ฒํจ์ผ๋ก์จ ์๋ ด์ ๋์ต๋๋ค.
์ด๋ฌํ AdaGrad Algorithm์ ์ดํด๋ณผ ์ ์์ต๋๋ค.
์ algorithm์์ ๋นจ๊ฐ ๋ฐ์ค ์๊น์ง๊ฐ Stochastic gradient descent์ ๋๋ค.
๊ทธ๋์ minibatch์ gradient๋ฅผ ๊ณ์ฐํด์ค๋๋ค.
๊ทธ๋ฆฌ๊ณ , r์ด ๋ฑ์ฅํ๊ณ r ์ r + g (element-wise) g์ ๋๋ค. // ๋ชจ๋ element๋ฅผ ๋ค ๊ณฑํ๋ ์์๊ฐ ๋ฉ๋๋ค. ๊ทธ๋ฌ๋ r์ ๋ฌด์กฐ๊ฑด ์์๋ก ์ ์ ์ปค์ง๋ ์ซ์์ ๋๋ค.
์ด๋ป๊ฒ ๋ณด๋ฉด gradient์ norm, ์ฆ gradient์ ํฌ๊ธฐ๋ฅผ ๊ณฑํด์ค๋ค๊ณ ๋ณผ ์ ์์ต๋๋ค.
์ธํ๋ ์์ ๊ฐ์ด update ๋ฉ๋๋ค.
์ฑ์ค๋ก ์ gradient๋ฅผ ๊ณฑํ๋ ๊ฒ๊น์ง ๊ฐ์ง๋ง, ๋ถ๋ชจ์ ๋ธํ + ๋ฃจํธ r์ด ๋ค์ด๊ฐ๋๋ค.
๊ทธ๋ฌ๋ฏ๋ก, r์ ๊ณ์ํด์ ์ปค์ง๋ฏ๋ก, ์ด ์ธํ๋ ํญ์ ์์์ง ์๋ฐ์ ์์ต๋๋ค.
์ฌ๊ธฐ์, gradient๊ฐ ํฐ ์๋ผ๋ฉด, r๋ ๋ ํฐ ์๊ฐ ๋ฉ๋๋ค.
gradient๊ฐ ์์ ์๋ผ๋ฉด, r์ ์๋์ ์ผ๋ก ์ข ๋ ์ปค์ง๋๋ค.
๊ทธ๋ฆฌ๊ณ ๋ธํ๋ ์์์ ๋๋ค. numerical stability๋ฅผ ์ํด์ ์กด์ฌํ๋ฉฐ, 0์ ๊ฐ๊น์ด ์๋ก ๋๋ ์ง๋ฉด ์ ๋๋ ์ด๋ ์ ๋ ์์ ์์๋ฅผ ๋๋ ๊ฒ์ ๋๋ค. ์ํ์ ๊ณ์ฐ์ Exception์ ์์ ์ฃผ๊ธฐ ์ํจ์ด์ฃ .
๊ฒฐ๊ตญ r์ gradient์ ํฌ๊ธฐ ๋์ ์ด๋ฏ๋ก,
gradient์ ํฌ๊ธฐ ๋์ ์ผ๋ก ๋๋๋ค๊ณ ๋ณผ ์ ์์ต๋๋ค.
๊ฒฐ๊ตญ, ์๋ฏธ ์๋ ๋ถ๋ถ์ ๊น๊ฒ ์ฒ์ฒํ, ์๋ฏธ ์๋ ๋ถ๋ถ์ ๋นจ๋ฆฌ ๋นจ๋ฆฌ ์ง๋๊ฐ๋๋ก ํ๋ ๊ฒ์ด Adaptive learning rate์ ๋๋ค.
Adam Learning rate
์ด๋ฌํ adative learning๊ณผ momentum์ ๋ํ์์ด Adam optimization์ ๋๋ค.
์ด๊ฒ์ adative learning๊ณผ momentum๋ฅผ ๋ ๋ค ์ฌ์ฉํ๋๊ณ ๋ณผ ์ ์์ต๋๋ค.
algorithm์ ๋ด ์๋ค.
Sample ๋ถ๋ถ๋ถํฐ 3์ค์ Stochastic gradient descent์ ๋๋ค.
๊ทธ๋ฆฌ๊ณ , s์ r์ด ๋ฑ์ฅํฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ ๋ก์ฐ ๊ฐ์ด ๋ฑ์ฅํฉ๋๋ค. ์ด๊ฒ์ exponential smoothing ๋๋ฌธ์ ๋ถ์ต๋๋ค.
์ฆ, ์ต๊ทผ ๊ฒ์ ๋ง์ด ๋ฐ์ํ๊ณ ๊ณผ๊ฑฐ์ ๊ฒ์ ๊น๋จน๋ ๋ฐฉํฅ์ ๋๋ค.
์ด๊ฒ์ s์ r์ ๊ณตํต์ ์ผ๋ก ์ ์ฉ๋ฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ bais correction์ด๋ผ๋ ๋ถ๋ถ์ด ์์ต๋๋ค.
์ด๊ธฐ์ gradient๋ฅผ ๋ฐ์ํ๋ ๋ฐ ์์ด, ์ด๊ธฐ gradient๊ฐ ๋ก์ฐ ๊ฐ์ ์ํด ๋งค์ฐ ์๊ฒ ๋ค์ด๊ฐ๊ฒ ๋ฉ๋๋ค.
๊ทธ๋ฌ์ ์ด๋ฐ์ gradient๊ฐ ๋๋ฌด ์๊ฒ ๋ฐ์๋๋ ๊ฒ์ ๋ง๊ธฐ ์ํด,
bias correction term์ ๋์ด ์ด๋ฅผ ๋ฐฉ์งํฉ๋๋ค. (1 - (๋ก์ฐ)๋ฅผ ๋๋ ์ค๋๋ค.)
๊ทธ๋ ๊ฒ solution์ ๋ ๋นจ๋ฆฌ ์ ๊ทผํ ์ ์๊ฒ ํ๋ ๊ฒ์ด bias correction์ ๋๋ค.
๊ทธ๋์,
1. SGD
2. Momentum
3. Adaptive
4. Adam
์ฆ, 2์ 3์ ๋์์ ์ฌ์ฉํ ๊ฒ์ด Adam์ ๋๋ค.
gradient๊ฐ ํฌ๋ฉด ํด์๋ก ๋ ์กฐ๊ทธ๋งฃ๊ฒ ๋ณด๊ณ , ์์ผ๋ฉด ์๋์ ์ผ๋ก ๋ ํฌ๊ฒ ๋ณด๊ณ ,
๊ทธ๋ฆฌ๊ณ Momentum์ ํตํด์ ํ์ฌ์ gradient๋ง ์ฌ์ฉํ์ง ์๊ณ , ๊ณผ๊ฑฐ์ gradient๋ฅผ ๋ค exponential smoothing์ ํ ๊ทธ ํฉ์ ํ์ฌ์ gradient์ฒ๋ผ ์นํํด์ ์์ผ๋ก์จ ๊ณผ๊ฑฐ๋ก๋ถํฐ์ ๊ฐ๋ค์ ๋ชจ๋ ๋ฐ์์ํต๋๋ค.
๊ฒฐ๊ตญ, Adam Optimizer๋ adaptive learning rate์ momentum์ ๋์์ ์ฌ์ฉํ๋ ๊ฒ์ ๋๋ค.
SGD๋ ๊ธฐ๋ณธ์ผ๋ก ๊น๊ณ ๊ฐ๋ฉฐ, ์๋๋ฅผ ๋ด๊ธฐ ์ํด์ bias correction์ ํ์ต๋๋ค.
Batch Normalization
input์ ๋ฃ์ด์ค ๋ Neural Network์์ Normalization์ ํฉ๋๋ค.
๊ทธ๋ฌ๋, NN์ k-nearest neighbor์ ๊ฐ์ distance ๊ธฐ๋ฐ ๋ฐฉ์์ normalization์ด ํ์์ ์ด์ง ์์ต๋๋ค.
์ฌ์ค NN์ Normalization ์ ํด๋ ์๋ํ๊ฒ ๋์ด์์ต๋๋ค.
๊ทธ๋ผ์๋ ํ๋ ๊ฒ ๋ ์ข๋ค๊ณ ์ต๊ทผ์ ๋ณด๊ณ ๊ฐ ๋์์ต๋๋ค.
๊ทธ๋ฆฌ๊ณ , ๋ณ์ ๋ณ๋ก scaling์ด ๋๋ฏ๋ก weight updateํ๋ ๋ฐ iteration์ ์ค์ผ ์ ์๋ค๊ณ ์๋ ค์ ธ ์์ต๋๋ค.
๊ทธ๋ฆฌ๊ณ , ๊ฐ๋ฅํ๋ฉด zero centered ๋ง์ถ๋ผ๊ณ ์๋ ค์ ธ ์์ต๋๋ค.
๊ทธ๊ฒ์ ํตํด signal์ด ์ ๋ ค ReLU์ ๊ฐ์ Activation func.์ ์ํด ๊ฐ์ด sparseํ๊ฒ ์ง์ง ์ค์ํ ๋ถ๋ถ๋ง activation ํ ์ ์๊ฒ ๋ฉ๋๋ค.
๊ทธ๋ ๊ฒ, input์์๋ง normalization์ ํ๋, hidden์์๋ normalization์ ํ์ง ์์ ํจ๊ณผ๊ฐ ๋ํ๋ฉ๋๋ค.
๊ทธ๋์ ์ด hidden๋ normalizatiion์ ํด์ค์ผ ํ๋ค๋ ๊ฒ์ด batch normalization์ ๋๋ค.
๊ทธ๋์ mini batch ๋จ์๋ก normalizationํฉ๋๋ค.
์ฐ๋ฆฌ๊ฐ mini batch ๋จ์๋ก weight๋ฅผ updateํ๋ ๋น์ฐํ ๊ฒ์ ๋๋ค.
๊ทธ๋ฌ๋ ๊ฐ๊ฐ์ hidden node์ output ๊ฐ๋ค์ normalizationํด์ฃผ์๋ ๊ฒ์ด์ฃ .
๊ทธ๋ฆฌ๊ณ internal covariate shift์ ๊ฐ๋ ์ ๋ด ์๋ค.
์ค์ weight update๋ ๊ณ์ ์์ด๋ฉฐ ์ด๋ฃจ์ด์ง๋ค๋ ๊ฒ์ ๋๋ค.
์ฆ, weight updateํ ์์ staticํ๊ฒ ๊ตฌํ์ง๋ง, weight update๋ dynamicํ๊ฒ ์ด๋ฃจ์ด์ง๋ค๋ ๊ฒ์ ๋๋ค.
๊ทธ๋ฐ๋ฐ normalization์ ํ๋ค๋ฉด, ๋ค์ zero centered๋ก ๋ง์ถฐ์ฃผ๊ธฐ ๋๋ฌธ์ ๋ค์ ๋๊ณ ์ค๊ฒ ๋ฉ๋๋ค.
๊ฒฐ๊ตญ, ์์๊ณผ ๊ฐ์ด ํ๊ท ๊ณผ ๋ถ์ฐ์ ๊ตฌํ๊ณ z-transformํ ๊ฒ์ ์ฌ์ฉํ๋ค๋ ๊ฒ์ ๋๋ค.
activation ์ ์ ๋์จ ๊ฐ์ ๊ฐ์ง๊ณ normalization์ ํฉ๋๋ค.
์ง๊ธ๊น์ง Deep learning ์ฆ, Deep Neural Network์ ๋ํด ์์๋ณด์์ต๋๋ค.
'Artificial Intelligence > Deep Learning' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Deep Learning] Convolutional Neural Network (2) (0) | 2023.05.03 |
---|---|
[Deep Learning] Convolutional Neural Network (1) (1) | 2023.04.30 |
[Deep Learning] Deep Neural Network (3) (0) | 2023.04.16 |
[Deep Learning] Deep Neural Network (2) (0) | 2023.04.14 |
[Deep Learning] Deep Neural Network (1) (1) | 2023.04.14 |