Artificial Intelligence 98

[Deep Learning] Recurrent Neural Network (2) - LSTM

🧑🏻‍💻용어 정리 Neural Networks Feed-forward Backpropagation Convolutional Neural Network Recurrent Neural Network LSTM Attention Cell state forget gate input gate output gate 이전 시간까지 RNN의 여러 가지 종류에 대해 알아보았습니다. 조금 더 살펴봅시다. RNN의 단점 RNN을 쭉 연결시켜 놓고 보니, 특히 Encoder, Decoder 부분에서 확연히 들어나는 이 특징은, 너무 입력되는 문장이 길다보니, Long-Term Dependency 문제가 발생합니다. input signal의 정보를 h t에 과거에서부터 계속 모아옵니다. 그런데 과거의 더 이전 시점의 무언가가 필..

[Computer Vision] Objectives - JPEG Algorithm (2)

🧑🏻‍💻용어 정리 Computer vision Edge Segmentation huffman coding run-length encoding Transfer coding DCT Quantization Thresholding Zigzag scanning DC AC Entropy coding Decoding 이번에는 compression 중에서도 lossy compression, 즉 손실 압축에 대해 다루겠습니다. 해당 과정을 이어서 살펴보겠습니다. Transfer coding block은 m x n의 크기에 대해서 다루겠습니다. DCT가지고 저번에는 4 x 4로 했었고, 8 x 8의 block으로 진행해보겠습니다. 지금, 0 ~ 255 사이의 값들이 들어가 있습니다. 다음의 과정을 봅시다. 1. 각 pix..

[Deep Learning] Recurrent Neural Network (1)

🧑🏻‍💻용어 정리 Neural Networks Feed-forward Backpropagation Convolutional Neural Network Recurrent Neural Network Propagation unfolding fold unfolding computational graph 우리가 지금까지, 여러 가지 기술들을 MLP를 기준으로 공부해왔습니다. 그러한 것으로부터 Deep MLP부터 성공적인 구조인 CNN까지 공부를 해봤습니다. 또 다른 성공적인 구조인 RNN에 대해 공부해보겠습니다. Recurrent Neural Network 이 RNN model도 1986년에 이미 제안이 되어온 model입니다. 결국 이 RNN도 Neural Network의 specialized form입니다. ..

[Computer Vision] Objectives - JPEG Algorithm

🧑🏻‍💻용어 정리 Computer vision Edge Segmentation huffman coding run-length encoding 이번에는 compression 중에서도 lossy compression, 즉 손실 압축에 대해 다루겠습니다. JPEG Algorithm 이 방법은 data loss를 어느정도 수용하겠다는 것입니다. 그리고 높은 압축률을 취하는 것입니다. 그래서 아래와 같은 특성을 지닙니다. Some acceptable data loss Greater compression ratio 저장 공간이 충분하지 않은 환경에서는 높은 압축률이 매우 중요해집니다. 이것은 transform coding을 기반으로 합니다. 그 말은 위와 같이 주파수 도메인을 바꾸겠다는 의미이죠. 해당 freque..

[Computer Vision] Objectives - Huffman Coding, Run-length Encoding

🧑🏻‍💻용어 정리 Computer vision Edge Segmentation huffman coding run-length encoding 지난 시간까지 edge를 제대로, 나누는 방법에 대해서 알아봤습니다. 그 방법에는 within-class variance OR between-class variance가 존재하죠. Objectives 아래 세 가지 알고리즘은 모두 압축을 위한 Algorithm입니다. Huffman Coding Run-length Coding JPEG Compression 압축이 필요한 이유는 영상 데이터가 너무 커서입니다. 위와 같이 pixel 하나에 8비트, 그리고 이것이 width x height 만큼 존재하며, 이것이 1초라면 30 프레임이라 하면 30도 곱해줘야합니다. 용량..

[Computer Vision] Segmentation

🧑🏻‍💻용어 정리 Computer vision Edge Segmentation clustering semantic segmentation Otsu's Method average variance moving average threshold within-class between-class 이번에는 Segmentation으로 더 grouping을 통해, clustering을 통해서 데이터를 어떻게 더 의미있게 나눌 수 있을까를 살펴보겠습니다. Segmentation image에 대해서 pixel 들을 뭉치는 것에 대해서 clustering 보다는 Segmentation이라는 단어를 많이 씁니다. 두 단어가 비슷하다고 보셔도 됩니다. 의미가 맞는 pixel 끼리 같은 group화 하는 것도 보입니다. 그래서 g..

[Deep Learning] Convolutional Neural Network (2)

🧑🏻‍💻용어 정리 Neural Networks Feed-forward Backpropagation Convolutional Neural Network stride filter kernel topology MLP image multi-channel sparse connection parameter sharing AlexNet VGGNet ResNet GoogLeNet LeNet transfer learning 지난 시간에는 Convolutional operation에 대해 다뤘습니다. 오늘은 CNN의 구조에 대해 살펴보겠습니다. CNN Architecture sparse connection sparse connection concept를 봅시다. 위와 같이 dense connections를 우리가 지금까지..

[Deep Learning] Convolutional Neural Network (1)

🧑🏻‍💻용어 정리 Neural Networks Feed-forward Backpropagation Convolutional Neural Network stride filter kernel topology MLP image multi-channel sparse connection parameter sharing 오늘부터 CNN에 대해서 배워봅시다. 지금까지는, linear separability, MLP, Feed-forward, Backpropagation, regularization, optimization 등을 살펴보았습니다. 그리고 오늘은 새로운 model CNN에 대해서 살펴봅니다. 그리고, 위와 같이 지금까지 배운 부분들이 MLP와 CNN이 다르지 않습니다. 거의 90%는 그대로 적용된다고 봐도..

[Thinking] 2023. 4. 27.

아래와 같이 책 구절 중 감명 깊은 하나의 문장을 따와서 그에 대한 나의 생각을 타이머로 10분을 재고 절차 없이 쓰는 것이다. 이 포스팅의 목적은 10분 동안 나의 생각을 정리하고 나의 뇌 확장에 목적이 있다. 일시 : '23. 4. 27. 23:00 장소 : 우리집 내 책상에서 📕 오늘의 구절 📕 실패? 🧐 나의 생각 💭 음 억까라고 요새 많이 표현하는 것 같다. 우리는 하루하루를 순간으로 쪼개어 굉장히 많은 조각으로 쪼개어 보면 굉장히 많은 선택의 기로에 놓이고, 그러한 선택들 속에서 나는 최고의 선택을 하고자 노력한다. 그래서 나의 상태를 최고의 상태에 놓으려고 더욱 더 노력한다. 그럼에도 불구하고 맘처럼 안 되는 순간이 많다. 소위 요새 말로 억까이다. 그러한 순간들에 대해 더욱 집중을 할지, ..

[Computer Vision] Binary Image

🧑🏻‍💻용어 정리 Computer vision Edge Objectives erosion dilation edge opening closing 이번에는 Segmentation에서, thresholding을 통한 binarization 하는 것을 알아보겠습니다. Objectives Segmentation 결과로 binary image나옴. 찾고자하는 부분 1, 배경 0. Binary image Neighborhoods connectedness Morphological processing for binary images 형태학적 Erosion and Dilation Opening and Closing Segmentation thresholding을 통한 binarization은 무엇일까요? 간단히 보면, 기..