전체 글 1851

[나는 왜 생각이 많을까?] 2023. 1.16. [완독]

🧩 Keyword 🧩 - 자동적 사고 - 부신피질자극호르몬 - 코르티솔 - 옥시토신 🎯 Key Sentence 🎯 일단 사실을 있는 그대로 받아들이고 '그렇군'하며 편하게 생각해야한다. 다양한 감정을 느끼는 사람이 정신적으로도 건강하고 행복도 또한 높은 것으로 나타났다. 지금 여기에 없는 어떤 것을 바라지 말고 사실이나 감정을 '있는 그대로' 받아들이면 행복의 본질적인 의미를 찾을 수 있다. 행복은 복합적인 요인으로 이루어져 있다. 그래서 '이걸 하면 행복해질 거야'라고 생각하는 행동을 하더라도 행복해지는 것이 아니다. 커피를 마시는 것보다 10분 동안 계단을 오르내리는 것이 졸음을 쫓는 데 효과적이며 활력도 되찾을 수 있다. 맑은 날 파란 하늘을 올려다보는 것만으로 긴장을 완화시킬 수 있다. 수면(특히..

Reading 2023.01.17

[Parameter] part 3 - 2

Learning rate scheduling -> 모델 학습 시 유용한 팁 Hyper parameter alpha를 학습 과정에 따라서 조절합니다. => 이를 수렴 단계마다 단계적으로 적용합니다. Model 과적합 문제 Model이 지나치게 복잡하여, 학습 Parameter의 숫자가 많아서 제한된 학습 샘플에 너무 과하게 학습이 되는 것입니다. -> 입력 feature의 개수가 많아지게 된다면 더욱 parameter의 개수가 많아지게 되고, 그것은 curse of dimension problem에 의해서 data의 개수가 더 많아지게 된다고 하는 것입니다. 그러나, 실제 환경에서는 data를 충분히 늘릴 수 없기 때문에, model이 overfitting이 되는 문제가 발생합니다. 한편, Mean-Squ..

[Gradient Descent] part 3 - 1

🎯 Keyword 🎯 - Gradient Descent - Batch Gradient Descent - Stochastic Gradient Descent Gradient Descent 이전에 설명한 Gradient Descent Algorithm은 "Batch Gradient Descent Algorithm"입니다. Batch Gradient Descent Algorithm - Linear regression model에서 목적 함수 J의 partial derivative term을 넣어서 θ0, θ1을 바꾸고 있는 것을 볼 수 있습니다. - 비록 local optimum이 취약하지만, 어느 정도 수렴이 되어 가는 장면을 볼 수 있습니다. - 단점 : θ0, θ1을 update하는 과정에서 sample의..

[TIL] 2023. 1.15. [겨울방학 기록]

2023년 1월 15일 일요일 1/15 2023 🏃 TIL 🏃 🌎 오늘의 이야기 ! 오늘 하루 한 문장 요약, 키워드 다른 변화 🧑🏻‍💻 오늘의 코딩 🧑🏻‍💻 🧑🏻‍💻 백준 문제 풀이 단 한 문제 ! 풀기 완료 ! 🧑🏻‍💻 머신러닝 공부 📖 오늘의 독서 📖 [나는 왜 생각이 많을까?] 🎹 피아노 🎹 G/B F/C 유모레스크 연습 9일차 오늘도 행복한 하루 !

[백준] #1075 나누기 python

https://www.acmicpc.net/problem/1075 1075번: 나누기 첫째 줄에 N, 둘째 줄에 F가 주어진다. N은 100보다 크거나 같고, 2,000,000,000보다 작거나 같은 자연수이다. F는 100보다 작거나 같은 자연수이다. www.acmicpc.net 📕 설명 📕 뒷 두 자리만 고려하는 풀이를 생각하여 다음과 같이 풀이하였다. 🧑🏻‍💻 나의 풀이 🧑🏻‍💻 N = int(input()) M = int(input()) tmp = int(str(N)[:-2]+'00') while True: if tmp % M == 0: break tmp += 1 print(str(tmp)[-2:])

[나는 왜 생각이 많을까?] 2023. 1.15.

🧩 Keyword 🧩 - 디폴트 모드 네트워크 - 자동복습기능 - 백파이어 효과 🎯 Key Sentence 🎯 최근 연구에서는 멍하니 있으면 기억력과 판단력을 담당하는 해마에도 좋은 변화가 생기는 것으로 밝혀졌다. 생애 이벤트가 부정적이더라도 밝고 행복한 친구가 있는 사람은 행복을 느끼는 것이다. 쉬는 동안 직전에 일어난 사건을 뇌가 자동으로 처리한다는 것이다. 이른바 '자동복습기능'이라고 할 수 있다. 부정적인 사람들에게 긍정적인 이야기를 하면 오히려 역효과가 난다. 자신을 3인칭 시점으로 보고 '아, 그는 지금 부정적이구나'라고 있는 그대로 묘사하면서 슬쩍 사고를 다른 곳으로 돌려 보자. 사고로부터 행동을 바꾸기보다 행동으로 사고를 바꾸는 것이 쉽다. 최근 뇌과학에서는 감정은 사고보다 몸의 움직임 등..

Reading 2023.01.15

[TIL] 2023. 1.14. [겨울방학 기록]

2023년 1월 14일 토요일 1/14 2023 🏃 TIL 🏃 🌎 오늘의 이야기 ! 오늘 하루 한 문장 요약, 키워드 새로운 세상 🧑🏻‍💻 오늘의 코딩 🧑🏻‍💻 🧑🏻‍💻 백준 문제 풀이 단 한 문제 ! 풀기 완료 ! 🧑🏻‍💻 머신러닝 공부 📖 오늘의 독서 📖 [나는 왜 생각이 많을까?] 🎹 피아노 🎹 G/B F/C 유모레스크 연습 8일차 🏋🏻 헬스 🏋🏻 등 어깨 하체 오늘도 행복한 하루 !

[백준] #10886 0 = not cute / 1 = cute python

https://www.acmicpc.net/problem/10886 10886번: 0 = not cute / 1 = cute 준희는 자기가 팀에서 귀여움을 담당하고 있다고 생각한다. 하지만 연수가 볼 때 그 의견은 뭔가 좀 잘못된 것 같았다. 그렇기에 설문조사를 하여 준희가 귀여운지 아닌지 알아보기로 했다. www.acmicpc.net 📕 설명 📕 python의 Counter를 이용하여 개수를 세어 풀이하였다. 🧑🏻‍💻 나의 풀이 🧑🏻‍💻 from collections import Counter N = int(input()) result = [] for _ in range(N): result.append(int(input())) if Counter(result)[0] > Counter(result)[1]..

[나는 왜 생각이 많을까?] 2023. 1.14.

🧩 Keyword 🧩 - 정보 - 충동 - 탭핑 - 통찰언어 - 넘겨짚기 🎯 Key Sentence 🎯 부정적인 정보에 주의가 집중되고 뇌가 활성화 된다. 부정적 감정이 생기고 나서 대략 4 ~ 6초 후에 전두엽이 활성화된다. 상대방이 화난 이유를 찾는 훈련을 하면 전두엽이 효율적으로 작동해 냉정해지는 기술을 터득할 수 있다. 글을 쓸 때, 포인트는 '통찰언어'를 사용하는 것이다. 통찰언어란 생각한다, 느낀다, 이해한다 등과 같은 사고나 이해에 관련된 말로 이런 언어를 많이 사용한 사람일수록 부정적인 감정이 줄어든 것으로 나타났다. 충동에 사로잡혔을 때는 30초 탭핑이 효과적이다. 마음이 심란하고 지쳤을 때는 정보량을 줄이길 바란다. 말 이외의 정보를 마음대로 생각하고 넘겨짚지 말자. 🧑🏻‍💻 독후감 🧑..

Reading 2023.01.14