전체 글 1851

[Seq2Seq with Attention for Natural Language Understanding and Generation] Part 4 - 2

🧑🏻‍💻용어 정리 Character-level Language Model Auto regressive model LSTM GRU Character-level Language Modeling task 자연어 처리에서의 기본 task인 language model이라는 task에 대해서 살펴봅니다. 주어진 Example training sequence에 대해 Input Layer의 값을 Input chars에 대해서 one-hot vector로 구성합니다. 그렇다면 입력 vector를 현재 time step의 x 입력 vector로 받게 되고 그 전 time step에서 넘어오는 ht-1이라는 추가적인 입력 vector를 받아서 현재의 Hidden state vector ht를 계산하게 됩니다. 참고로, t가..

[백준] #1371 가장 많은 글자 python

https://www.acmicpc.net/problem/1371 1371번: 가장 많은 글자 첫째 줄부터 글의 문장이 주어진다. 글은 최대 50개의 줄로 이루어져 있고, 각 줄은 최대 50개의 글자로 이루어져 있다. 각 줄에는 공백과 알파벳 소문자만 있다. 문장에 알파벳은 적어도 하나 이 www.acmicpc.net 📕 설명 📕 Python의 library인 Counter를 이용하여 글자를 세어 list에 넣는다. 정렬된 List를 하나씩 출력한다. 🧑🏻‍💻 나의 풀이 🧑🏻‍💻 from collections import Counter li = [] while True: try: tmp = input().split() for i in tmp: for j in i: li.append(j) except: b..

[Seq2Seq with Attention for Natural Language Understanding and Generation] Part 4 - 1

🧑🏻‍💻용어 정리 Seq2Seq Recurrent Neural Networks (RNNs) Unrolled Illustration Recurrent Neural Networks (RNNs) CNN 과 더불어 특정한 형태의 Neural Network 입니다. Sequence data에 특화된 형태를 띄게 됩니다. 동일한 function을 반복적으로 호출한다는 특징을 가지고 있습니다. 이렇게 변화하는 입력이 순차적으로 들어온다고 하면, 특정 time step t에서의 입력 신호를 Xt라고 하면, RNN function 혹은 nerual network layer는 현재 time step에서의 입력 신호와 그 이전의 time step에서의 동일한 RNN function이 계산했던 Hidden state vect..

[TIL] 2023. 1.24. [겨울방학 기록]

2023년 1월 24일 화요일 1/24 2023 🏃 TIL 🏃 🌎 오늘은 이야기 ! 오늘 하루 한 문장 요약, 키워드 개선 4 🧑🏻‍💻 오늘의 코딩 🧑🏻‍💻 🧑🏻‍💻 백준 문제 풀이 단 한 문제 ! 풀기 완료 ! 🧑🏻‍💻 머신러닝 공부 📖 오늘의 독서 📖 [Seven and a Half Lessons about the brain] 🎹 피아노 🎹 G/B F/C 유모레스크 연습 14일차 오늘도 행복한 하루 !

[Seven and a Half Lessons about the brain] 2023. 1.24.

이 책은 한국에 "이토록 뜻밖의 뇌과학"으로 출간되었다. 내가 뇌과학 랩실에 다니던 당시 박사님께서도 알고있는 "리사 펠드먼 배럿" 인 뇌과학자 중에서도 대가인 분이 저자이다.(특히 감정 연구에 많은 시간을 투자하셨다. 정서신경과학.) 이 책은 카이스트 정재승 교수가 감수하기도 하였으며 출간된 지 얼마 되지 않은 요즘, 최근의 뇌과학의 어려운 논문집을 모두 모아놓았다는 호평을 받는 책이다. 🧩 Keyword 🧩 - 알로스타시스 == 신체예산 - 거짓 정보 false alarm - 파충류의 뇌 reptilian brain - 삼위일체의 뇌 triune brain - 도마뱀의 뇌 lizard brain - 변연계 limbic system - 대뇌피질 cerebrum cortex - 신피질 neo..

Reading 2023.01.24

[Convolutional Neural Networks and Image Classification] Part 3

🧑🏻‍💻용어 정리 Convolutional Neural Networks fully-connected layer fully-connected neural network activation map Hyperparameters VGGNet ResNet Convolutional Neural Networks fully-connected layer fully-connected neural network Computer Vision (ConvNets) 2012년 AlexNet부터 성능이 급격히 좋아짐 2015년 사람보다 더 인식을 잘 하게 되었습니다. 여러분은 고양이와 강아지를 잘 구분할 수 있나요? 고양이와 강아지를 구분하기 위해서는 Computer Vision 분야에서 많이 쓰이는 CNN, 즉 Convolutio..

[백준] #10819 차이를 최대로 python

https://www.acmicpc.net/problem/10819 10819번: 차이를 최대로 첫째 줄에 N (3 ≤ N ≤ 8)이 주어진다. 둘째 줄에는 배열 A에 들어있는 정수가 주어진다. 배열에 들어있는 정수는 -100보다 크거나 같고, 100보다 작거나 같다. www.acmicpc.net 📕 설명 📕 Brute-Force로 permutations python library로 list에서 모두 꺼내와서 접근하였다. 🧑🏻‍💻 나의 풀이 🧑🏻‍💻 from itertools import permutations N = int(input()) N_list = list(map(int ,input().split())) result = 0 for i in permutations(N_list): total = 0..

[Training Neural Networks] part 2

🧑🏻‍💻용어 정리 Gradient Descent MNIST handwritten digit classification Back propagation Computational graph sigmoid tanh ReLU Batch Normalization Gradient Descent loss function을 최소화하는 Gradient 값을 찾는다. 그러나 곧이 곧대로 gradient descent 를 사용한다면 비효율적으로 사용될 수 있다. 그러므로 여러 가지 Gradient Descent Algorithm 들이 존재합니다. MNIST handwritten digit classification -> mse loss 적용 예시 목적 : 학습을 통해 각 layer 들에 존재하는 Parameter 들. 학습 ..

[자존감] 2023. 1.23. [완독]

🧩 Keyword 🧩 - 체현 (embodiment) - 사장 자세 - 테스토스테론 - 코르티솔 🎯 Key Sentence 🎯 웃는 입모양을 유지하면 근육이 가지고 있는 기억이 뇌에 특정한 정보를 전달한다. 어떤 충고든 이미 그 일을 겪어보고 성공한 사람을 찾아가 들어야한다. 사람은 2가지 이유 때문에 변한다. 엄청난 고통을 겪거나, 위대한 목표가 있거나. 변화를 두려워하면 아무것도 나아질 수 없다. 🧑🏻‍💻 독후감 🧑🏻‍💻 오늘은 최종적으로 우리가 어떻게 행복해질 수 있는지 다뤘다. 우리는 지금까지 겪은 일과 상관 없이 우리가 앞으로 해야할 일에 대해 집중해야한다. 우리가 겪은 일은 앞으로 우리의 성장에 있어 도움이 되는 방향으로만 고려해보자. 신체의 행동에 따라 우리의 마음가짐도 결정된다. 기분이 좋..

Reading 2023.01.23