[Advanced Classification] part 5 - 2
๐ง๐ป๐ป์ฉ์ด ์ ๋ฆฌ
Hard Margin SVM
Sample Constraints
SVM Primal problem
Hard Margin SVM
support vector ๊ฐ๋ค์ ์ํด์ hypothesis h(x) ๊ฐ ์ด๋ป๊ฒ ๊ฒฐ์ ์ด ๋๋์ง์ ๋ํด์ ๋ด ์๋ค.
์ ์์ ์ฐธ๊ณ ํ์ฌ ์๋ ์ค๋ช ์ ๋ณด์.
h(x) = W^T x + b >= 1 for y = 1
h(x) = W^T x + b >= -1 for y = -1
์์ ๋ณด๋ฉด,
y ( W^T x + b ) >= 1 for all samples์ธ ๊ฒ์ ์ ์ ์๋ค.
๐ก ์ด์ ๊ฐ์ ๊ฒ์ SVM์์์ Sample Constraints๋ผ๊ณ ํ๊ฒ ๋ฉ๋๋ค.
๊ฒฐ๊ตญ, margin์ maximizationํ๊ธฐ ์ํด์๋ ||W||์ ๊ฐ์ minimizationํ๋ ๊ฒ๊ณผ ๊ฐ์ ๊ฒ์ ๋๋ค.
๋ฐ๋ก minimizationํ๋ ๊ฒ์ ๊ณ์ฐ ์ ์ด๋ ค์์ ๊ฒช์ผ๋ฏ๋ก, ||W||^2์ minimizationํ๋ ๋ฌธ์ ์ ๋์ผํฉ๋๋ค.
์ด๋ฌํ ๋ฌธ์ ๋ฅผ
SVM Primal problem
์ด๋ผ๊ณ ํฉ๋๋ค.
ํ๋์ ์ต์ ํ ๋ฌธ์ ๋ฅผ ๋ง๋ ๊ฒ์ ๋๋ค.
๊ฒฐ๊ตญ,
y ( W^T x + b ) >= 1 for all samples์ ๊ฐ์ constrained๋ฅผ ๊ฐ์ง๋๋ค. constrained optimization
๋ง์ฝ data sample ๋ค์ด ์๋ก ๊ฐ์ linearly separableํ์ง ์๋ค๋ฉด, ์์ ์ค์ ํ hyper plane์ผ๋ก Sample๋ค์ ๊ตฌ๋ถํ ์ ์์ต๋๋ค.
์ด๋ ์ฌ์ฉํ๋ ๊ฒ์ด,
Kernel ํจ์
์ ๋๋ค.
-> linearly separable ํ์ง ์์ data sample๋ค์ด ์๋ค๊ณ ํ ๋, linearly separableํ๊ฒ ๋ง๋๋ ๊ณผ์ ์ ๋๋ค.
์ด๋, decision surface๊ฐ 2์ฐจ์ hyper plane์ผ๋ก ๊ตฌ์ฑ ๋์ด์ ๊ตฌ๋ถํฉ๋๋ค.
- polynomial kernel
- Gausiian radial basis function(RBF)
- Hyperbolic tangent (multilayer perceptron kernel)
์ ์ ๊ฐ ์ง์ ์ ํํ์ฌ ์๋ก ๋ค๋ฅธ ํํ๋ก mapping ๊ฐ๋ฅํ๋ค.
'Artificial Intelligence' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Ensemble Learning] part 6 - 1 (0) | 2023.01.20 |
---|---|
[Advanced Classification] part 5 - 3 (0) | 2023.01.19 |
[Advanced Classification] part 5 - 1 (0) | 2023.01.19 |
[Linear Classification] part 4 - 3 (0) | 2023.01.19 |
[Linear Classification] part 4 - 2 (0) | 2023.01.19 |