Paper Review
Lin, Y., Chen, Y., Cheng, K.-T., & Chen, H. (2023). Few Shot Medical Image Segmentation with Cross Attention Transformer (arXiv:2303.13867). arXiv. http://arxiv.org/abs/2303.13867 [!Synth] Contribution:: 본 논문의 저자들은 medical imaging에서의 데이터가 부족한 현상을 언급하고, lack medical dataset의 현상을 시사한다. 또한, 기존의 FSL(Few Shot Learning)에 대해서 이를 여러 가지 module을 사용하여 medical imaging segmentation에 접목 시킬 방법을 제안한다. 본 모델의 이름은..
Paper Review 제목 : Denoising Diffusion Probabilistic Models 저널 : NeurIPS 저자 : Jonathan Ho, Ajay Jain, Pieter Abbeel 일시 : 16 Dec 2020 연구 : UC Berkeley 해당 논문 리뷰는 위 출처의 논문을 리뷰한 것입니다. 오류나 내용 정정 요청에 대한 문의는 언제나 환영입니다. 본 논문 리뷰를 읽기 전 꼭 아래 background를 먼저 숙지하시기 바랍니다. 1. data에 random noise를 더해준 후 noise를 제거하는 과정을 학습하는 모델 2. forward process : data에 noise를 추가하는 과정으로 markov chain을 통해..
Paper Review 제목 : All are Worth Words: A ViT Backbone for Diffusion Models 저널 : CVPR 2023 저자 : Fan Bao et al. 일시 : 25 Mar 2023 연구 : Dept. of Comp. Sci. & Tech., Institute for AI, BNRist Center 해당 논문 리뷰는 위 링크의 논문을 리뷰한 것입니다. 오류나 내용 정정 요청에 대한 문의는 언제나 환영입니다. 본 논문 리뷰를 읽기 전 꼭 아래 background를 먼저 숙지하시기 바랍니다. Background Diffusion models은 최근 수많은 연구로 엄청난 성능을 자랑하고 있습니다. 그리고 ViT 기술을 경량화하여 나온 Apple의 FastViT 등,..
Paper Review 제목 : An Images is Worth 16 x 16 Words: Transformers For Image Recognition At Scale 저널 : ICLR 2021 저자 : Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil Houlsby 일시 : 3 Jun 2021 연구 : Google Research, Brain Team 해당 논문 리뷰는 위 링크의 논문을 리뷰한 것입니다...
Paper Review 제목 : Tackling the Generative Learning Trilemma with Denoising Diffusion GANs 저널 : ICLR 2022 (Spotlight). 저자 : Zhisheng Xiao, Karsten Kreis, Arash Vahdat 일시 : 15 Dec 2021 연구 : The University of Chicago | NVIDIA 해당 논문 리뷰는 위 링크의 논문을 리뷰한 것입니다. 오류나 내용 정정 요청에 대한 문의는 언제나 환영입니다. Background 본 논문을 읽기 전 Diffusion Models, DDPM, 그리고 GANs에 대한 개념은 필수적입니다. 아래 링크 중 Background에 대한 부분을 숙지해주세요. 그리고 간략하..
🧑🏻💻용어 정리 Neural Networks RNN LSTM Attention Transformer Generator discriminator self-attention layer normalization multi-head attention positional encoding https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect..
https://arxiv.org/abs/1802.04762 Deep Predictive Coding Network for Object Recognition Based on the predictive coding theory in neuroscience, we designed a bi-directional and recurrent neural net, namely deep predictive coding networks (PCN). It has feedforward, feedback, and recurrent connections. Feedback connections from a higher layer ca arxiv.org Deep Predictive Coding Network for Object Re..
https://arxiv.org/abs/1802.04762 Deep Predictive Coding Network for Object Recognition Based on the predictive coding theory in neuroscience, we designed a bi-directional and recurrent neural net, namely deep predictive coding networks (PCN). It has feedforward, feedback, and recurrent connections. Feedback connections from a higher layer ca arxiv.org Deep Predictive Coding Network for Object Re..