[NLP] Word Embedding - CBOW
๐ง๐ป๐ป ์ฃผ์ ์ ๋ฆฌ
NLP
Word Embedding
CBOW
Represent the meaning of word
- Two basic neural network models:
- Continuous Bag of Word(CBOW) : use a window of word to predict the middle word.
- Skip-gram (SG) : use a word to predict the surrounbding ones in window.
์์ ๊ฐ์ ์ฐจ์ด๋ฅผ ๋ณด์ ๋๋ค.
ํ๋์ฉ ์ดํด๋ด ์๋ค.
CBOW (Continuous Bag of Word)
"The cat sat on floor" ์ด๋ผ๋ ๋ฌธ์ฅ์ด ์๋ค๊ณ ํฉ์๋ค.
์ด ๋ฌธ์ฅ์ CBOW ๋ฐฉ์์ผ๋ก Window size = 2๋ก ํ์ต์ ์ํค๋ ค๊ณ ํฉ๋๋ค.
๋ค์์ ์ดํด๋ณด๊ฒ ์ต๋๋ค.
์์ ๊ฐ์ด ๊ฐ์ด๋ฐ ๋จ์ด ํ๋๋ฅผ ์ ์ธํ ์์ชฝ ๋ ๊ฐ์ฉ(window size๋งํผ)์ ๋จ์ด๋ฅผ input์ผ๋ก ์ฃผ๊ณ output์ ๊ฐ์ด๋ฐ ๋จ์ด๊ฐ ๋๋๋ก ํ์ต ์ํต๋๋ค.
์ด ํํ๋ก ๋ค์ ์ดํด๋ด ์๋ค.
๊ฐ ๋จ์ด๋ค์ one-hot encoding์ ๊ฑฐ์ณ one-hot vector๋ก ๋ง๋ญ๋๋ค.
์ฆ, ๋ฌธ์ฅ์ Neural Network ํํ๋ก ๋ฐ๊พผ ๊ฒ์ ๋๋ค.
๊ทธ๋ฆฌ๊ณ ๋ค์,
๊ฐ๊ฐ์ ๋จ์ด๋ค์ input์ ๋ํด์ hidden layer ์ฐ์ฐ์ ํ์ฌ output layer์์ "sat"์ vector๋ฅผ ๊ณ์ฐํฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ ,
input์ one-hot vector๋ฅผ ์๋์ ๊ฐ์ด, hidden layer๋ฅผ ๊ฑฐ์ณ์ "sat"์ด๋ผ๋ ๋จ์ด์ word embedding ๊ณผ์ ์ ๊ฑฐ์นฉ๋๋ค.
๊ทธ๋ฆฌ๊ณ , ์๋์ ๊ฐ์ด
The cat ___.
___์ ๋ค์ด๊ฐ๋ sat, eat, sit, is ,... ๋ฑ์ ๋จ์ด๋ ๋น์ทํ๊ฒ ํ์ต ๋์ด ๋น์ทํ ๊ณต๊ฐ์ mapping ๋๋ ๋ฐฉ์์ ๋๋ค.
We can consider either W or W’ as the word’s representation. Or even take the average.
๊ฒฐ๊ตญ, ๊ฐ์ด๋ฐ t ๋ฒ์งธ ์ธ๋ฑ์ค์ ๋จ์ด๋ฅผ ๊ฐ์ง๊ณ , t - 2, t - 1, t + 1, t + 2๋ฒ์งธ ์ธ๋ฑ์ค์ ๋จ์ด๋ค์ ํ์ตํ๋ ํ์์ ๋๋ค.
'Artificial Intelligence > Natural Language Processing' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[NLP] Word Embedding - Word2Vec (0) | 2023.03.27 |
---|---|
[NLP] Word Embedding - Skip Gram (0) | 2023.03.27 |
[NLP] Introduction to Word Embedding (0) | 2023.03.26 |
[NLP] Overview NLP (0) | 2023.03.21 |
[NLP] Introduction to NLP (0) | 2023.03.21 |