[Deep Learning] Deep Generative Models(1) - VAE
๐ง๐ป๐ป์ฉ์ด ์ ๋ฆฌ
Deep Generative Models
Generative Model
Discriminative Model
pre-training
fine-tunning
DBN
VAE
encoder
autoencoder
reparametrization trick
์ด๋ฒ์๋ Deep Generative Models์ด๋ผ ๋ถ๋ฆฌ๋ ์์ฑ ๋ชจ๋ธ์ ๋ํด ๋ณด๊ฒ ์ต๋๋ค.
Deep Generative Models
์ด Generative Model์ ์์ฑ ๋ชจ๋ธ, '์์ฑํ๋ ๋ชจ๋ธ'์ ๋๋ค.
์ฆ, data๋ฅผ ์์ฑํ ์ ์๋ ๋ชจ๋ธ์ ์๋ฏธํฉ๋๋ค.
์ฐ๋ฆฌ๋ ํ๊ท ๊ณผ ๋ถ์ฐ์ ๊ฐ์ง๋ ํ๋ฅ ๋ถํฌ์ ์ํด data๋ฅผ ๋ฌดํํ ์์ฑํด๋ผ ์ ์์ต๋๋ค.
์ด๊ฒ์ผ๋ก๋ถํฐ sampling, generation ๋ฑ์ผ๋ก ๋ถ๋ฆ ๋๋ค.
๋ง์ฝ ์ฐ๋ฆฌ๊ฐ N(0, 1)๊ณผ ๊ฐ์ ํ์ค ์ ๊ท ๋ถํฌ๋ฅผ ๊ฐ์ง๊ณ ์๋ค๋ฉด, ์ด๊ฒ์ผ๋ก๋ถํฐ ํ๋ฅ ์ ์ผ๋ก data๋ฅผ ์์ฑํด๋ผ ์ ์์ต๋๋ค.
์ด๋ฌํ model์ generative model์ด๋ผ๊ณ ํฉ๋๋ค.
๊ณผ๊ฑฐ์๋, ์ผ๋ฐ์ ์ผ๋ก ์ด generative model์ output ์์ฒด๊ฐ probability distribution ์ผ๋ก ๋์ค๋ ๊ฒ์ผ๋ก ๋ง์ด ์ด์ผ๊ธฐ ํ์ต๋๋ค.
๋ชจ๋ธ์ output ์์ฒด๊ฐ ํ๋ฅ ๋ถํฌ์๊ธฐ ๋๋ฌธ์ ๋ฐ์ดํฐ๋ฅผ ์์ฑํด๋ผ ์ ์๋ ๊ฒ์ด์ฃ .
๊ทธ๋์ true- data-generating distribution์ ํ์ตํฉ๋๋ค.
๋ฐ์ดํฐ๊ฐ ์ด๋๋ก๋ถํฐ ์๋์ง,
๋ฐ์ดํฐ์ underlying func.์ ์ ํ์ตํฉ๋๋ค.
ํ์ต์ด ์ ๋์ด, ์ด ๋ฐ์ดํฐ๊ฐ ์ด๋ค ํน์ ๋ถํฌ๋ฅผ ์ ๋ฐ๋ฅธ๋ค๊ณ ํ์ ๋,
๊ฒฐ๊ตญ, true data-generating distribution์ ์๋ค๋ ๊ฒ์ ๋ฐ์ดํฐ์ ๋ชจ๋ ๊ฒ์ ์ฐ๋ฆฌ๊ฐ ์ ์ดํดํ๋ค๋ ๊ฒ์ด ๋ฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ ์๋ก์ด ๋ฐ์ดํฐ ํฌ์ธํธ๋ค์ ๊ณ์ํด์ ์์ฑํด๋ผ ์๋ ์์ต๋๋ค.
์ด๊ฒ์ ๋ฐ๋๋๋ ๊ฒ์ด Discriminative Model์ ๋๋ค.
์ง๊ธ๊น์ง ์ฐ๋ฆฌ๊ฐ ๋ฐฐ์์จ ๋๋ถ๋ถ์ ๊ฒ๋ค์ด์ฃ .
discriminant func.์ ๋ง๋ค์ด๋ด๋ model๋ก, ์ด๊ฒ์ ํ๋ณ ๋ชจ๋ธ์ด๋ผ๊ณ ๋ ํฉ๋๋ค.
์ฆ, ํ๋ณ์์ ๋ง๋ค์ด๋ด๋ ๋ชจ๋ธ๋ก, ๋จธ์ ๋ฌ๋์์ decision hyperplane ๋ฑ์ด ์์ต๋๋ค.
๊ฒฐ๊ตญ generative model์
์ด๋ค ๋ฐ์ดํฐ๋ฅผ ์์ฑํด๋ผ ์ ์๋ ๋๋ถ๋ถ์ ํ๋ฅ ๋ถํฌ์ ๋ชจ์์ธ ๊ทธ๋ฌํ output์ด ๋์์ฃผ์ด์ผ ํ๋ model๋ก ํน๋ณํ์ง๋ง ๊ต์ฅํ ์ด๋ ต์ต๋๋ค.
๊ทธ๋ฐ๋ฐ ์ฌ๊ธฐ์ ๋ชจ๋ธ์ output์ด ํ๋ฅ ๋ถํฌ ํํ๋ฅผ ๋์ด์ผ ํ๋ค๋ ๊ฒ์ด GAN model์ ํตํด์ ๊ฐ์ ์ด ๋ฌด๋์ง๊ฒ ๋ฉ๋๋ค. ์ด๊ฒ์ ๋์ค์ ๋ง์๋๋ฆฌ๊ฒ ์ต๋๋ค.
Deep Belief Networks (DBN)
NN์ผ๋ก๋ถํฐ depth๋ฅผ ํ์ฅ ์ํค๋ ํธ๋ ๋๊ฐ ์๊ฒจ๋ฌ์ ๋,
vanishing gradient๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด pre-trained ๋ฐฉ๋ฒ์ ํตํด ์ฌ์ ์ ๋ชจ๋ธ์ ์ข ํ์ต์์ผ ๋์ ๋ค,
์ฐ๋ฆฌ์ ๋ฐ์ดํฐ๋ก๋ถํฐ fine-tunning์ ํจ์ผ๋ก์จ vanishing gradient๋ฅผ ์์ ๋ณด์๋ ์์ด๋์ด๊ฐ ์์์ต๋๋ค.
๊ทธ๊ฒ์ด ์ด DBN์ด ๋ฉ๋๋ค.
์ด๊ฒ์ ๊ทธ๋ฆผ์ ์ฐ์ธก ์๋จ์ ๋์์๋ Restricted Bolzmann Machine (RBM)์ด๋ผ๋ ๊ฒ์ ํตํด pre-training์ ํฉ๋๋ค.
์ด๊ฒ์ perceptron์ด๋ ํฌ๊ฒ ๋ฌ๋ผ๋ณด์ด์ง ์์ต๋๋ค.
๋จผ์ , visibleํ๋ค๊ณ ํ์ฌ input์ v๋ก ํํํ์๊ณ , ์๋ hidden์ด ๋ฉ๋๋ค.
๊ทธ๋์ ์ด๊ฒ์ ๋ฐ๋ก ๋ฐ ํ๋จ์ ํ๋ฅ ๋ถํฌ๋ฅผ fitting ์ํค๋ ํ์ต์ ํฉ๋๋ค.
์ด ํ๋ฅ ๋ถํฌ๋ energy func.๋ฅผ ํฌํจํ๋๋ฐ, ๊ทธ ์์์ ์์ ์๋์ ๊ฐ์ต๋๋ค.
์ด energy func.์ด ๋ฎ์ผ๋ฉด ๋ฎ์ ์๋ก ์ข์ต๋๋ค. ๋ฎ์ผ๋ฉด ๋ฎ์ ์๋ก ์์์ ๋ฎ๊ฒ ๋ค์ด๊ฐ exp. ๊ฐ์ด ์ปค์ง์ฃ .
๊ทธ๋์ probability๊ฐ ๋๊ฒ ๋์ด ์์ ์ ์ธ ์ํ๋ผ๊ณ fitting์ ํ๋ ๊ตฌ์กฐ์ ๋๋ค.
๊ฒฐ๊ตญ ์ energy func.์ ์์์์, visible๊ณผ hidden์ ์ ์ฌ๋๊ฐ ๋์ผ๋ฉด ๋์์๋ก energy func.์ด ๋ง์ด๋์ค๋ก ๋ฎ์ ๊ฐ์ ๊ฐ์ง๊ณ ,
์ ํ๋ฅ ๊ฐ์ด ๊ฒฐ๊ณผ์ ์ผ๋ก ์ปค์ง๋ฉฐ, ์ฆ, visible layer์ ํ๋ ํํ์ hidden layer์ ํ๋ ํํ๊ฐ ์ ์ฌํ๋ฉด ์ ์ฌํ ์๋ก ์ด model์ด ์ฑ๊ณต์ ์ผ๋ก ํ์ต์ด ๋์๋ค๊ณ ๋ณผ ์ ์์ต๋๋ค.
๊ทธ๋์ ์ฐ์ธก ๋งจ ๋ฐ ๊ทธ๋ฆผ์ฒ๋ผ,
์ด Restricted Bolzmann machine์ผ๋ก layer ์์ pre-training์ ๋จผ์ ํ๊ณ ,
๋ง์ง๋ง์ ๋ฐ์ดํฐ๊ฐ ๋ค์ด์ค๋ฉด, ์ญ fine-tunning๋ง ํ๊ณ ๊ฐ์๋ ๊ฒ์ ๋๋ค.
๊ทธ๋์ ์ ๊น์ layer์์ vanishing gradient๋ก ์ธํด ํ์ต์ด ์ ์ ๋๋ ๊ฒ์ด,
์ฌ์ ์ ๋ฏธ๋ฆฌ ๋ง์ถฐ ๋์ด, ๊ทธ๋ ๊ฒ ํ์ต์ด ์ ๋์ด์์ง ์๋๋ผ๋ ์ด๋ ์ ๋๋ ๊ด์ฐฎ์์ง๋ค๋ ๊ฒ์ ๋๋ค.
๊ทธ๋ฆฌ๊ณ ์ด pre-training์ ํ๋ ๋ฐฉ๋ฒ์ ๊ฐ layer ๋ผ๋ฆฌ ํ๋์ ์ ์ฌ๋๋ฅผ ์ต๋ํ ํ๊ณ ์ถ์ดํ๋,
Restricted Bolzmann machines์ ์ฌ์ฉํ๋ค๊ณ ๋ณด์๋ฉด ๋๊ฒ ์ต๋๋ค.
NN์ด ์ญ์ฌ์ ์ผ๋ก ๋ช ๋ฒ ์ฉ ์ฃฝ์ด์๋ค๊ฐ,
2006๋ ์ ์ด DBN์ผ๋ก SVM์ ํ ๋ฒ ์ด๊ธฐ๊ณ ,
2011๋ ์ ReLU๊ฐ ๋์ค๋ฉฐ Vanishing gradient๊ฐ ๋ง์ด ํด๊ฒฐ๋์ด ์ญ ์ด๊ธฐ๊ณ ์๋ ์ํฉ์ ๋๋ค.
์ด DBN์ deep learning ์ญ์ฌ์ ํฐ ์๋ฏธ๋ฅผ ๊ฐ์ง๋๋ค.
๊ทธ๋ฐ๋ฐ ์ด DBN์ ์ฌ์ฉํ๋ ๋ฐ ์์ด, RBM์ ์ฌ์ฉํด์ผํ๋ ๊ฒ ๋๋ฌด๋๋ ํฌ๊ธฐ ๋๋ฌธ์ ์ต๊ทผ์๋ ์ฌ์ฉํ์ง ์์ต๋๋ค.
์ด๊ฒ์ ๋ค ํ๋ฅ ๋ก fitting์ ํด์ผํ๊ธฐ ๋๋ฌธ์ ์๊ฐ์ด ๋งค์ฐ ์ค๋๊ฑธ๋ฆฝ๋๋ค.
์ญ์ฌ์ ์ธ ๊ด์ ์์, ์ฌ๊ธฐ์ vanishing gradient๋ฅผ ์กฐ๊ธ ํด๊ฒฐํ๋ฉด ์ด depth๋ฅผ ํฌ๊ฒ ๊ฐ์ ธ๊ฐ NN์ด SVM๋ ์ด๊ธด๋ค๋ ๊ฐ๋ฅ์ฑ์ ๋ณธ ๊ฒ์ ๋๋ค.
์ด๋ฌํ insight๋ฅผ ์ฃผ์๊ธฐ ๋๋ฌธ์ ์ง๊ธ์ ๋ฅ๋ฌ๋์ด ์๋ ๊ฒ์ ๋๋ค.
์ด์งธํผ ๊ฒฐ๊ตญ ์ด DBN์ unsupervised pre-training์ ํ์ต๋๋ค.
y ๊ฐ ์์ด ์ ์ฌ๋๋ฅผ ๊ฐ์ง๊ณ unsupervised pre-training์ ํฉ๋๋ค.
Variational Auto-Encoder
๊ทธ ๋ค์ ๋ง์ ๋๋ฆด ๋ชจ๋ธ์ VAE์ ๋๋ค.
์ด ๋ชจ๋ธ์ auto encoder์ ๊ตฌ์กฐ๋ฅผ ํ๊ณ ์์ต๋๋ค.
๊ทธ๋ฐ๋ฐ, auto encoder์๋ latent vector๊ฐ ๋์ค์ฃ .
latent vector๋ code๋ผ๊ณ ๋ ๋ถ๋ฅด๋ ์จ๊ฒจ์ง, ํจ์์ vector์ด๋ฉฐ ํต์ฌ์ ์ค๋ช ํ๋ ๊ฒ์ ๋๋ค.
๊ทธ๋ฐ๋ฐ ์ผ๋ฐ์ ์ธ auto encoder ๊ตฌ์กฐ์ ๋ฌ๋ฆฌ latent vector๋ก๋ถํฐ representation์ ๋ฝ์๋ด๋ ๊ฒ์ด ์๋,
ํ๋ฅ ๋ถํฌ๋ฅผ ๊ฐ์ ํ๊ณ , ํ๋ฅ ๋ถํฌ์ parameter ๊ฐ์ ์ฐพ์๋ ๋๋ค.
์ ๊ทธ๋ฆผ์ผ๋ก ๋ดค์ ๋, mean variance๊ฐ 2์ธํธ๊ฐ ์กด์ฌํฉ๋๋ค.
์ด๊ฒ์ latent vector์ latent dimension์ด 2๋ผ๋ ๊ฒ์ ์๋ฏธํฉ๋๋ค.
์ด๊ฒ์ ๊ณง,
- Z1 ~ N (µ_1, ∂^2_1)
- Z2 ~ N (µ_2, ∂^2_2) ๋ฅผ ์๋ฏธํฉ๋๋ค.
auto encoder์ ๊ฒฝ์ฐ, ์ฐ๋ฆฌ๊ฐ ์ถ์ฝํ๊ณ ์ถ์ ์ ๋ณด์ ํํ๋ ์ ๋ง ์ ๋ณด ๊ทธ ์์ฒด์ ๋๋ค.
๊ทธ๋ฐ๋ฐ, VAE๋ ์ ๋ณด๋ฅผ ์ถ์ฝํด์ code์ ๋ชจ์ผ๊ณ ์ถ์๊ฒ์ด latent์ distribution์ ๋๋ค.
๊ทธ๋์ ๋ชจ๋ธ์ด ์ ํ์ต๋์ด mean, variance vector๊ฐ ์ ์ถ์ ์ด ๋์๋ค๋ฉด,
decoder๋ถ๋ถ์์๋ z1, z2 ๋ผ๋ ๋ ๊ฐ์ latent vector๋ฅผ ๋ฌดํํ ๋ง์ด ์์ฑํด๋ผ ์ ์์ต๋๋ค.
๊ทธ๋์ ํ์ต์ด ์ ๋์ด ์๋ค๋ฉด, ํ์ต ๋ฐ์ดํฐ๊ฐ ๋ค์ ๋ถ์กฑํ๋๋ผ๋ ์ ์์ฑํ ์ ์๋ค๋ ๊ฒ์ ๋๋ค.
๊ทธ๋ฆฌ๊ณ latent์ ๋ํ ์ดํด๋ฅผ ํ ์ ์์ต๋๋ค.
๊ฒฐ๊ตญ ์ฐ๋ฆฌ๋ latent representation์ ์ฐพ๋ ๊ฒ์ด์ฃ .
autoencoder๋ ํจ์ถ๋ ์ ๋ณด ๊ฐ๋ง ์ ์ ์๋ค๊ณ ํ๋ฉด, VAE๋ latent space ์์ฒด๋ฅผ ์ดํดํ ์ ์์ต๋๋ค.
์ฆ, ์ด๋ป๊ฒ ์๊ฒผ๋์ง ์ ์ ์์ต๋๋ค.
์ฌ์ค ํ์ต์ด ์ ๋๋ค๋ฉด,
encoder ๋ถ๋ถ์ ๋ฒ๋ฆฌ๊ณ decoder ๋ถ๋ถ์ผ๋ก๋ถํฐ sample์ ๋ฌดํํ ๋ง๋ค์ด๋ด์ด,
latent vector ์์ฒด๊ฐ ํ์ต ๋ฐ์ดํฐ์ ๋ํ ์ ๋ณด๋ฅผ ํจ์ถํ๊ณ ์์ผ๋,
๊ทธ ํ๋ฅ ๋ถํฌ๋ฅผ ์๊ณ ์๋ค๋ฉด ๋ฐ์ดํฐ๋ฅผ ๋ฌดํํ ์์ฑํด๋ผ ์ ์๋ค๋ ๊ฒ์ ๋๋ค.
์ด 2014๋ ์ ๋์จ VAE๋ ์๋ง ๋๋ค๋ฉด ๊ต์ฅํ ํ์ํํฉ๋๋ค.
์ด๊ฒ์ด autoencoder์ ๊ธฐ๋ณธ์ ์ธ ํํ๋ผ๋ฉด 28 x 28์ ๋ํด 700๋ช ๊ฐ๋ฅผ 10๊ฐ๋ก ์ค์ด๊ณ ๋ค์ representation์ ์ถ์ถํ๋ ๊ฒ์ ๋๋ค.
๊ทธ๋ฐ๋ฐ, VAE๋ผ๋ฉด,
์์ ๊ฐ์ด mean๊ณผ sigma๋ฅผ µ_1, ∂^2_1 ~ µ_10, ∂^2_10์ ๋ง๋ญ๋๋ค.
๊ทธ๋ฆฌ๊ณ , autoencoder์ ์ ์ฒด ๋ชจ๋ธ์ ๊ฐ์ง๊ณ ์ถ์ ์ด ์ ๋๋ค๋ฉด,
์ด sampled latent vector๋ ๋ฌดํํ ๋ง์ด ๋ฝ์๋ผ ์ ์์ต๋๋ค.
๊ทธ๋์ encoder๋ฅผ ๋ฒ๋ฆฌ๊ณ ๊ทธ ๋ค์ ์ฐ๋ฆฌ์ original data๋ฅผ ๊ต์ฅํ ์ ์ค๋ช ํ๊ณ ์๋ latent vector๋ก MLP, CNN, SVM ๋ฑ์ task๋ค์ด ๊ฐ๋ฅํด์ง๋๋ค.
์ด VAE๋ ํ๋ฅ ๋ถํฌ ์ถ์ ์ด ํ์ํฉ๋๋ค. ์ด๊ฒ์ด VAE์ ๋จ์ ์ด์ฃ .
MCMC, Gibbs Sampling, MLE, .... ๋ฑ ์์ฒญ๋ heavyํ ๋ชจ๋ธ์ ๋๋ค.
๋ชจ๋ ๋ชจ๋ธ์ด ํ๋ฅ ๋ถํฌ ์ถ์ ์ด ๋ค์ด๊ฐ๋ฉด ๊ต์ฅํ heavyํด์ง๋ค๊ณ ๋ณด๋ฉด ๋ฉ๋๋ค.
์ด๊ฒ์ ๋นํ๋ฉด Backpropagation์ ๊ต์ฅํ ๊ฐ๋จํ ๊ฒ์ด์ฃ .
๊ทธ๋ฐ๋ฐ ํ๋ฅ ๋ถํฌ ์ถ์ ์ ์ํด์๋ sampling์ ์ด๋ป๊ฒ ํด์ผํ๋๊ฐ๋ถํฐ ๋ค์ด๊ฐ๋ ๊ฒ์ด์ฃ .
์๋ง์ ์ฐจ์์ multi-variable์ ๋ชจ๋ space๋ฅผ ์ปค๋ฒํ๋๋ก samplingํด๋ด๋ ๊ฒ์ ๊ต์ฅํ ์ด๋ ค์ด ์ผ์ด์ฃ .
๊ทธ๋์ ์ด๋ฌํ ๊ตฌ์กฐ์์๋ random sample ํ๋ ๋ฝ์๋ด๊ธฐ๋ ์ด๋ ค์์ง๋๋ค.
random samples๋ค์ ๋ฝ์์ ์ ์ฒด space๋ฅผ ๋ค ์ค๋ช ํด๋ด์ผ ํ๋ ๊ฒ์ด ๋งค์ฐ ์ด๋ ค์ด ์ผ์ ๋๋ค.
Reparameterization Trick
์ฌ๊ธฐ์ ๋ณด๋ฉด ์ผ์ชฝ์ ์๋ ๊ฒ์ด VAE์ ๋ํ ์ผ๋ฐ์ ์ธ ๊ตฌ์กฐ์ ๋๋ค.
VAE input์ด ๋ค์ด๊ฐ๊ณ , Encoder ๊ตฌ์กฐ์์ mean, variance๋ฅผ ๋ฝ์๋ด๊ณ , ๊ทธ๊ฒ์ ํตํด ๋ค์ sampling, ๊ทธ๋ฆฌ๊ณ decoder ๊ตฌ์กฐ์์ reconstruction์ ๋ฝ์๋ด๊ณ Reconstruction error๊น์ง ๋ฝ์๋ ๋๋ค.
์ด๊ฒ์ ๊ณ์ฐํด์ผ backpropagation์ด ๋๊ณ ๋๊ฒ ๋ฉ๋๋ค.
๊ทธ๋ฐ๋ฐ, mean๊ณผ variance ๊ฐ์ง๊ณ ์ ๊ทธ๋ฆผ์ ํ์ดํ๋ฅผ ํตํด samplingํ ๊ฒ์ ๋ํด ์ด๋ป๊ฒ backpropagationํ ๊ฒ์ธ๊ฐ์ ๋ํ ๊ณ ๋ฏผ์ด ์๊น๋๋ค.
๋งค์ฐ ๋ํดํฉ๋๋ค.
๊ทธ๋์ ์ค๋ฅธ์ชฝ์ด practical VAE, ์ฆ, ์ค์ ๋ก ์ฌ์ฉํ๋ VAE์ ๋๋ค.
์ด๊ฒ์ mean, variance๋ฅผ ๊ทธ๋ฅ ์ ์ ์ธ ๊ฐ์ ๊ฐ์ง๊ณ ๊ฐ์ ๊ทธ๋๋ก ์ฌ์ฉํฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ sample์ noise๋ฅผ ํ์ฌ์ ๊ทธ๋ฅ ๋ํด์ฃผ์ด์ backpropagation์ด ํ๋ฅด๋๋ก ๋ง๋ค์ด์ฃผ๋ ๊ฒ์ด๋ผ๊ณ ๋ณด๋ฉด ๋๊ฒ ์ต๋๋ค.
๋ง์ผ, N(0, 1) -> 0.1์ผ๋ก samplingํ๋ค๋ฉด, ์ด sampling์ด๋ผ๋ precess ๋๋ฌธ์ Backpropagation์ ์ ์ฝ์ด ์๊น๋๋ค.
๊ทธ๋ฆฌํ์ฌ,
mean, variance 0, 1์ ๋ํด์, 0 + 1 * (Noise)์ ํํ๋ก ํ๋ ๊ฒ์ ๋๋ค.
์ด noise๊ฐ sampling์ด์ฃ .
๊ทธ๋์ gradient chain ๋ด์์ sampling ๊ณผ์ ์ ๋นผ๋ฒ๋ ธ๋ค๊ณ ๋ณด์๋ฉด ๋๊ฒ ์ต๋๋ค.
๊ทธ๋์ ์ค์ ๋ก VAE๋ฅผ ๊ตฌํํ๊ธฐ ์ํด์๋ ์ด Reparameterization Trick์ ํตํด Backpropagation์ด ๊ตฌํ๋๋ค๊ณ ๋ณด์๋ฉด ๋๊ฒ ์ต๋๋ค.
'Artificial Intelligence > Deep Learning' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Computer Vision] Quantization & Pruning (0) | 2023.06.15 |
---|---|
[Deep Learning] Deep Generative Models(2) - GAN (0) | 2023.06.01 |
[Deep Learning] Autoencoders (0) | 2023.05.23 |
[Deep Learning] Recurrent Neural Network (4) - Transformer (0) | 2023.05.20 |
[Deep Learning] Recurrent Neural Network (3) - Attention (0) | 2023.05.19 |