NLP 3

[NLP] Attention

🧑🏻‍💻용어 정리 Neural Networks RNN LSTM Attention Attention을 쓰는 이유? 굉장히 긴 문장이 들어왔다고 봅시다. 100개의 hidden state가 있어서, 맨 마지막의 sentense embedding이 output 생성할 때, 모든 단어의 정보를 다 포함하고 있을까요? output을 생성할 때, 각각의 단어를 다 보면서, 현재 hidden state와 각 100개의 hidden state간의 관계를 구하며 가장 attention score가 높은 것을 선택을 합니다. 결국, encoder가 source sentence를 하나의 vector로 encoding하기 어렵습니다. 그래서 이러한 seq2seq task 에서는 길이가 길 때, 성능이 떨어지는 문제가 있습니다..

[NLP] Sequential Data Modeling

🧑🏻‍💻용어 정리 Neural Networks RNN LSTM Attention CNN Sequential Data Modeling Sequential Data Most of data are sequential Speech, Text, Image, ... Deep Learnings for Sequential Data Convolutional Neural Networks (CNN) Try to find local features from a sequence Recurrent Neural Networks : LSTM, GRU Try to capture the feature of the past 지금까지 입력에 대해 살펴보았죠. 그런데, 그 입력에 대해서 다 output이 존재합니다. 우리는 그 output을..

[NLP] Overview NLP

🧑🏻‍💻 주요 정리 NLP Word Embedding Modeling Sequence MLP CNN RNN Language Modeling Autoregressive Language Modeling Machine Translation Seq2Seq Attention Transformer 배경 지식 NLP를 배우기 위해선 다음과 같은 구성요소들을 알아야 합니다. 함께 알아봅시다. Word Embedding 컴퓨터는 인간의 언어를 알아듣지 못 합니다. 그래서 우리는 이 문자들을, 이 Semantic 단어를 어떤 숫자로 mapping 시켜주어야 합니다. 이를 word embedding 작업이라고 부릅니다. Each word can be represented as a vector based on the Dist..