전체 글 1851

[Linear Classification] part 4 - 2

🧑🏻‍💻용어 정리 zero-one loss hinge loss cross-entropy loss Linear Classification hinge loss 계산 값이 + 값이 된다면, max 값은 margin 값에 선형적으로 비례하여 증가합니다. 이 경우, loss 역시 증가합니다. Cross-entropy loss p와 q가 유사하다면 loss는 줄어들고, 서로 다르다면 loss는 올라갑니다. 지금까지는 계산한 모델의 score 값은 실수 값입니다. 그러나 방금 배운 Cross-entropy loss 값은 확률 값으로 이루어져 있습니다. 그렇다면 계산한 Score 값은 어떻게 이러한 확률 값으로 mapping 할 수가 있을까요? 우리가 fitting하고자 하는 Label은 1 or 0 인 값을 갖게 되..

[Linear Classification] part 4 - 1

🧑🏻‍💻용어 정리 Linear Classification hyper plane multiclass classification zero-one loss hinge loss cross-entropy loss Linear Classification -> 모델의 출력이 discrete한 값을 가지게 됩니다. -> 문제에서 입력의 category를 결정하고 분류하기 위해서 data set에서 입력과 정답으로 구성된 label이 있는 data set을 사용하게 됩니다. Linear classification 역시 linear regression 모델과 같이 linear model을 사용합니다. 점선은 Hyper plane (decision boundary)을 의미합니다. h(x) > 0 이면 positive sam..

[자존감] 2023. 1.18.

🧩 Keyword 🧩 - 흰 가운 신드롬 - 파워 포즈 - 건전한 이기주의 🎯 Key Sentence 🎯 파워 포즈, 일명 사장 자세를 취하면 혈액의 모든 중요 수치가 정상으로 돌아간다. 긍정적인 뉴런이 부정적인 뉴런보다 더 강력해지면, 뇌는 긍정적인 뉴런으로 이루어진 길을 더 선호하게 된다. 인간의 몸은 그 자체로 기적 같은 작품으로, 극도로 세련된 보호 장치와 경고 장치를 가지고 있다. 오랫동안 자신에게 맞지 않는 직업에 종사하거나 인간관계를 유지하고 또는 부적합한 환경에서 살 경우, 우리의 정신이 육체에 마치 약물 오용 혹은 마약과 비슷한 증상을 불러일으킨다. 모든 것은 우리가 자신에 대해서 솔직해 지는 것에서 시작한다. 사랑하거나, 떠나거나, 아니면 바꿔라. 뇌는 당신이 좋아하는 것보다 싫어하는 ..

Reading 2023.01.18

[TIL] 2023. 1.17. [겨울방학 기록]

2023년 1월 17일 화요일 1/17 2023 🏃 TIL 🏃 🌎 오늘은 이야기 ! 오늘 하루 한 문장 요약, 키워드 home 🧑🏻‍💻 오늘의 코딩 🧑🏻‍💻 🧑🏻‍💻 백준 문제 풀이 단 한 문제 ! 풀기 완료 ! 📖 오늘의 독서 📖 [자존감] 📚 영어 공부 📚 토익 스피킹 part. 1 [Read a text aloud] 🎹 피아노 🎹 G/B F/C 유모레스크 연습 9일차 오늘도 행복한 하루 !

[자존감] 2023. 1.17.

🧩 Keyword 🧩 - 뉴런 - 시냅스 - 과시적 비관주의 - 부차적인 병적 이득 - 심인성 질환 - 신경전달물질 - 아드레날린 - 히스타민 - 거울뉴런 🎯 Key Sentence 🎯 "바보 같은 짓 가운데 그야말로 최고봉은 항상 똑같은 행동을 하면서 다른 결과가 나오기를 기대하는 것이다." 신경 연결은 우리가 어떤 생각을 하자마자 만들어진다. 우리의 뇌는 여유 있고 느긋한 느낌이 모여 있는 길, 부정적인 생각으로 이루어진 길에서 공포를 찾아내 공포심을 유발하는 길 중 더 넓게 퍼져있는 길을 선택한다. 뇌는 긍정적인 결과를 예상했다가 실망하지 않기 위해서 긍정적인 결과보다는 부정적인 결과를 더 많이 인지하는 연습을 하는 경향이 있다. 우리의 뇌는 원칙적으로 우리가 규칙적으로 행하는 모든 것을 자동화 한..

Reading 2023.01.17

[Machine Learning] 신경망 기초 1

🧑🏻‍💻용어 정리 합성함수 - composite function 합성함수의 도함수 - derivative 연쇄 - chain 신경망의 동작 원리를 이해하는 데 필요한 기초적인 멘탈 모델을 설명할 수 있다. 신경망의 기본적인 구성 요소 수식 코드 다이어그램 함수 - 프랑스의 철학자 르네 데카르트가 처음 제안한 방법. 좌표에 나타내기. 1. 수식 2. 다이어그램 함수 나타내기 방법 1) 함수 나타내기 방법 2) 3. 코드 python의 Numpy 라이브러리이다. 신경망에서 다룰 데이터는 모두 다차원 배열에 담긴다. import numpy as np print("파이썬 리스트를 이용한 연산") a = [1, 2, 3] b = [4, 5, 6] print("a+b:", a+b) try: print(a*b) ex..

[백준] #2747 피보나치 수 python

https://www.acmicpc.net/problem/2747 2747번: 피보나치 수 피보나치 수는 0과 1로 시작한다. 0번째 피보나치 수는 0이고, 1번째 피보나치 수는 1이다. 그 다음 2번째 부터는 바로 앞 두 피보나치 수의 합이 된다. 이를 식으로 써보면 Fn = Fn-1 + Fn-2 (n ≥ 2)가 www.acmicpc.net 📕 설명 📕 python의 대입 문법을 사용하여 풀이하였다. 🧑🏻‍💻 나의 풀이 🧑🏻‍💻 def fibonacci(a,b, N): for _ in range(N): a,b = a + b , a return a N = int(input()) a,b = 0, 1 print(fibonacci(a,b,N))