전체 글 1851

[자존감] 2023. 1.20.

🧩 Keyword 🧩 - 5가지 감각 - 10개의 문장 🎯 Key Sentence 🎯 상황 상상 연습은 정상적인 사고 형식보다 대략 1만 배 이상 빠른 속도로 시냅스를 연결한다. 하나의 감각에서 다른 감각으로 바꿀 때면, 이 두 영역은 서로 정보를 교환한다. 우리는 4 ~ 6번에 걸쳐서 깊은 수면과 램수면을 왕래한다. 뇌는 반복되는 패턴을 인지하고 특정한 정보를 대뇌에만 넣어두지 않고 소뇌에도 넣어둔다. 소뇌는 자동적으로 진행되는 행동 패턴을 관할하는 부위이다. 🧑🏻‍💻 독후감 🧑🏻‍💻 오늘은 좀 더 구체적으로, 그리고 주체적으로 뇌를 훈련하는 방법에 대해 배웠다. 뇌 훈련에 있어 중요한 것은 내가 어떠한 것을 원하는지가 가장 중요한 것 같다. 내가 원하는 것이 없고 무기력하다면 절대로 훈련될 수 없기 ..

Reading 2023.01.21

[Ensemble Learning] part 6 - 2

🧑🏻‍💻용어 정리 Accuracy FPE FNE ROC curve Supervised Learning에서 model의 성능은 어떻게 평가할 수 있을까요? model의 Accuracy를 측정합니다. 각 경우에 대해 오차가 얼마나 있었는지 표현하는 방법은 Confusion matrix 입니다. False positive error: 실제로 negative인데 positive로 판정한 경우입니다. False negative error: 실제로 positive인데 negative로 판정한 경우입니다. 💡 Unbalanced Data set의 경우, Accuracy 이외에도 precision과 recall 값을 동시에 보아야 model의 성능을 제대로 측정할 수 있습니다. ROC Curve 서로 다른 Classi..

[Ensemble Learning] part 6 - 1

🧑🏻‍💻용어 정리 Ensemble Learning Expert bagging boosting Random Forest GBM Ensemble Learning 이미 사용하고 있거나 개발한 알고리즘의 간단한 확장 Supervised Learning task에서 성능을 올릴 수 있는 방법 머신러닝에서 알고리즘의 종류에 상관 없이 서로 다르거나, 같은 매커니즘으로 동작하는 다양한 머신러닝 모델을 묶어 함께 사용하는 방식입니다. 여러 다른 model을 함께 모아 예측 model의 집합으로 사용하는 것입니다. 하나의 학습 model은 우리가 expert라고 표현할 수 있습니다. 다양한 model의 각 장점을 살려서 예측 성능을 향상할 수 있습니다. 예측 성능을 안정적으로 향상시킬 수 있다는 것이 장점입니다. 하나의..

[자존감] 2023. 1.19.

🧩 Keyword 🧩 - 거울뉴런 - 신경의 조형성 🎯 Key Sentence 🎯 어렸을 때부터 자신들의 거울뉴런을 통해 부모의 특정한 행동 패턴을 습득하고 이를 뉴런에 저장해둔다. 우리의 뇌는 매일 뇌를 사용하는 방식에 적응하면서 끊임없이 변한다. 함께 신호를 발사하는 뉴런들은 서로 연결되어 있다. 시냅스를 통해 뉴런들은 서로 연결되어 있다. 사용하거나 잃어버려라! Use it or lose it! 머릿속에서 이야기하는 것은 감각에 즉각 영향을 준다. 잠재의식은 1초당 8만개가 넘는 정보를 처리한다. 실제로 경험하면 뇌가 매우 많은 시냅스를 만들어 내다는 것을 알게되었다. 이와 같은 사실은 우리가 뭔가를 매우 생생하게 상상해도 그렇게 많은 뉴런 연결이 생겨난다는 것이다. 부정어를 쓰지 마라. 긍정적 단..

Reading 2023.01.19

[Advanced Classification] part 5 - 3

🧑🏻‍💻용어 정리 ANN (Aritificial Neural Network) DNN (Deep Neural Network) Multilayer perceptron model ANN (Aritificial Neural Network) nonlinear classification model을 제공 앞서 있던 것과 결이 다른 classifier 인간의 뇌 신경을 모사한 형태로 만들어진 model 인접하는 node에서 신호를 수집하게 되면, 그 신호들은 전기적으로 하나의 node들에 합성이 되어서 어느 전기 수준 이상으로 신호가 증가됐을 때, 화학적인 과정을 통해서 그 다음 뉴런으로 신호를 전파해 나간다. Linear combinations으로 만든 score 값을 이용 nonlinear한 연산이 "Actiov..

[Advanced Classification] part 5 - 2

🧑🏻‍💻용어 정리 Hard Margin SVM Sample Constraints SVM Primal problem Hard Margin SVM support vector 값들에 의해서 hypothesis h(x) 가 어떻게 결정이 되는지에 대해서 봅시다. 위 식을 참고하여 아래 설명을 보자. h(x) = W^T x + b >= 1 for y = 1 h(x) = W^T x + b >= -1 for y = -1 에서 보면, y ( W^T x + b ) >= 1 for all samples인 것을 알 수 있다. 💡 이와 같은 것을 SVM에서의 Sample Constraints라고 하게 됩니다. 결국, margin을 maximization하기 위해서는 ||W||의 값을 minimization하는 것과 같은 것입..

[Advanced Classification] part 5 - 1

🧑🏻‍💻용어 정리 SVM Hard Margin SVM Soft Margin SVM Nonlinear transform & kernel trick Advanced Classification hyper plane을 중간에 긋는데 많은 선택의 문제가 발생합니다. 위 사진과 같이 여러 개의 hyper plane들 중에서는 sample data에는 적합하지만, new test data가 들어왔을 때, 적합하지 않을 수 있습니다. positive sample과 negative sample 사이에서 어디에 hyper plane을 그어야 가장 적합할지를 알아야합니다. 이것이 model 수립에서 중요한 요점입니다. 이러한 문제들을 해결하기 위해서, SVM(Support Vector Machine) 이 필요합니다. SVM..

[Linear Classification] part 4 - 3

🧑🏻‍💻용어 정리 multiclass classification One-VS-All One Hot Encoding Multiclass Classification image recognition -> binary classification에서의 문제와 같이, n차원, signal space에서 입력 feature를 plotting 후, 이 입력 feature들을 적절하게 구분할 수 있는 hyper plane을 학습하면서 얻게 됩니다. 어떤 model에서는 multiclass classification문제에서 바로 class id 값을 출력하는 경우들도 있지만, 보통은 binary classification 문제를 multiclass classification 문제로 확장을 하는 경우도 우리가 생각할 수 있..