๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ

๐Ÿš— Major Study (Bachelor)/๐ŸŸฅ Machine Learning13

Logistic Regression z๋ผ๋Š” ๊ฐ’์ด Weight์™€ Input์˜ ๋‚ด์ ํ•œ Linear Regression์ด๊ณ  ์ด ๊ฐ’์ด Sigmoid ํ•จ์ˆ˜์˜ Input ๊ฐ’์œผ๋กœ ๋“ค์–ด๊ฐ„๋‹ค. ์‚ฌ์‹ค P๋ผ๋Š” ํ™•๋ฅ ๊ณผ P๊ฐ€ ์•„๋‹Œ 1-P์˜ ํ™•๋ฅ ์˜ ๋น„์œจ๋กœ ํ‘œํ˜„๋  ์ˆ˜ ์žˆ๋Š” ๊ฒƒ์„ Log๋ฅผ ์ทจํ•œ ํ›„ P์— ๋Œ€ํ•ด์„œ ํ‘œํ˜„์„ ํ•˜๋ฉด Sigmoid ํ•จ์ˆ˜๊ฐ€ ๋‚˜์˜ค๊ฒŒ ๋œ๋‹ค. ์ฆ‰ ํ™•๋ฅ  ๊ฐ’์„ 0๋ถ€ํ„ฐ 1 ์‚ฌ์ด์˜ ๊ฐ’์œผ๋กœ ํ‘œํ˜„์„ ํ•˜๊ณ  Binary Decision์„ ํ•˜๊ธฐ ์œ„ํ•จ์ด๋‹ค. Logistic Regression์ด๋ผ๋Š” ๊ฒƒ์€ ๊ทธ๋Ÿผ ์–ด๋–ป๊ฒŒ ๋ฐ์ดํ„ฐ๋ฅผ ํšŒ๊ธฐํ•˜๋Š” ๋ฐฉ๋ฒ•์ผ๊นŒ? Linear Regression์ด๋ž€ ๋ฐ์ดํ„ฐ์˜ ๋ถ„ํฌ๋ฅผ ๊ฐ€์žฅ ์ž˜ ํ‘œํ˜„ํ•˜๋Š” ์„ ํ•˜๋‚˜๋ฅผ ๊ธ‹๋Š” ๊ณผ์ •์ด๋ผ๊ณ  ๋ณด๋ฉด ๋œ๋‹ค. ๊ทธ๋Ÿผ Logistic์˜ ๋œป์€ ์—ฌ๊ธฐ์„œ ๋” ๋‚˜์•„๊ฐ€ Class๋ฅผ ๋ถ„๋ฅ˜ํ•˜๊ธฐ ์œ„ํ•œ ํ™•๋ฅ  ๋ชจ๋ธ์„ ๋งŒ๋“ค๊ณ ์ž ํ•˜๋Š” ๊ฒƒ์ด๋‹ค. ๊ทธ๋ž˜์„œ F๋ผ๋Š” .. 2022. 12. 8.
Classification Binary Class๋ฅผ ๊ตฌ๋ถ„ํ•  ์ˆ˜ ์žˆ๋Š” ํ•จ์ˆ˜๋ฅผ ์–ด๋–ป๊ฒŒ ์ฐพ์„ ์ˆ˜ ์žˆ์„์ง€ ์ƒ๊ฐํ•ด๋ณด์ž. ๊ฐ Input Data์— ํ•ด๋‹นํ•˜๋Š” Label์ด ์ฃผ์–ด์ง„ ์ƒํƒœ๋ผ๊ณ  ํ–ˆ์„ ๋•Œ ์•ž์œผ๋กœ ๋“ค์–ด์˜ฌ Data์— ๋Œ€ํ•ด์„œ ๋ถ„๋ฅ˜ํ•  ์ˆ˜ ์žˆ๋Š” ํ•จ์ˆ˜๋ฅผ ์ฐพ๋Š” ๋ฐฉ๋ฒ•์— ๋Œ€ํ•œ ์„ค๋ช…์ด๋‹ค. ๋งŒ์ผ ํ‘œ์— 5๊ฐœ์˜ ๋ฐ์ดํ„ฐ๊ฐ€ ์žˆ๋‹ค๋ฉด ์ด ๋ถ„ํฌ๋ฅผ Regressionํ•  ์ˆ˜ ์žˆ๋Š” ์„ ์„ ํ•˜๋‚˜ ๊ธ‹๊ณ  ๋ฐ˜๋Œ€์˜ Label์„ ์ฃผ์–ด Regression์„ ํ•˜๋Š” ์„ ์„ ํ•˜๋‚˜ ๊ธ‹๊ฒŒ ๋œ๋‹ค. ๊ทธ๋ ‡๊ฒŒ ๋˜๋ฉด ์„ ์ด 2๊ฐœ๊ฐ€ ์ƒ๊ธฐ๊ฒŒ ๋˜๋Š”๋ฐ ์ด๋ฅผ ๊ธฐ์ค€์œผ๋กœ Class 2๊ฐœ์— ๋Œ€ํ•ด ํŒ๋ณ„ํ•˜๋Š” ํ•จ์ˆ˜๋ฅผ ๋งŒ๋“ค ์ˆ˜ ์žˆ๋‹ค. ๋‘ ๋ฒˆ์งธ๋กœ ํ•จ์ˆ˜๋ฅผ ์„ค์ •ํ•˜๋Š” ๋ฐฉ์‹์œผ๋กœ๋Š” label์ด 0์ธ ๊ฒƒ๋“ค์„ ์˜คํžˆ๋ ค -1๋กœ ๋ฐ”๊พธ์–ด ๋” ํ™•์‹คํ•œ Regression์„ ๋งŒ๋“ค์–ด์ฃผ๋Š” ๋ฐฉ์‹์ด๋‹ค. ์ด๋ ‡๊ฒŒ ๋˜๋Š” ๊ฒฝ์šฐ๋„ Binary Classification์˜.. 2022. 12. 6.
Linear Discriminant Analysis(LDA) Approach Classification์˜ ๊ฒฝ์šฐ๋ฅผ ์‚ดํŽด๋ณด์ž. Classifier๋ฅผ ํ‘œํ˜„ํ•˜๋Š” ํ”ํ•œ ๋ฐฉ๋ฒ•์€ Discriminatn ํ•จ์ˆ˜๋ฅผ ์‚ฌ์šฉํ•˜๋Š” ๊ฒƒ์ด๋‹ค. Input Data์— ๋Œ€ํ•ด ํด๋ž˜์Šค๋ฅผ ๊ฐ€์žฅ ์ž˜ ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋Š” ํ•จ์ˆ˜๋ฅผ ์ •์˜ํ•˜๊ณ  ์ตœ๋Œ€๊ฐ’์„ ๊ฐ€์ง€๋Š” Class๋ฅผ ์„ค์ •ํ•˜๋Š” ๋ฐฉ์‹์ด๋ผ๊ณ  ์ดํ•ดํ•˜๋ฉด ๋œ๋‹ค. ๊ทธ๋ ‡๋‹ค๋ฉด Discriminant ํ•จ์ˆ˜๋Š” ์–ด๋–ค ๊ฒƒ์ธ๊ฐ€. Decision Boundary ๋ž€ ํด๋ž˜์Šค๋ฅผ ๊ตฌ๋ถ„ํ•  ์ˆ˜ ์žˆ๋Š” ์„ ์„ ํ•˜๋‚˜ ๊ธ‹๋Š” ๊ฒƒ์ด๋ผ๊ณ  ์ƒ๊ฐํ•˜๋ฉด ๋œ๋‹ค. ํด๋ž˜์Šค 0์— ๋Œ€ํ•ด์„œ ๊ฐ€์ง€๋Š” ํ™•๋ฅ ๊ฐ’์ด ๋†’์€ ๊ฒฝ์šฐ ํด๋ž˜์Šค 0๋กœ ํŒ๋ณ„, ํด๋ž˜์Šค 1์— ๋Œ€ํ•ด์„œ ๊ฐ€์ง€๋Š” ํ™•๋ฅ ๊ฐ’์ด ๋†’์€ ๊ฒฝ์šฐ ํด๋ž˜์Šค 1๋กœ ํŒ๋ณ„ํ•˜๊ฒŒ ๋œ๋‹ค. Generative classifier ๋ž€ ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•˜๊ธฐ ์œ„ํ•œ ๋ชจ๋ธ์ด๋‹ค. ๊ทธ๋ ‡๊ธฐ ๋•Œ๋ฌธ์— ๋ฐ์ดํ„ฐ๊ฐ€ ์ƒ์„ฑ๋  ํ™•๋ฅ ์ธ Joint Probab.. 2022. 12. 5.
Stochastic Gradient Descent, Regularization(L2 Ridge, L1 Lasso) Gradient Descent์—๋Š” ๋‘ ๊ฐ€ ๋ฐฉ๋ฒ•์ด ์กด์žฌํ•œ๋‹ค. Batch์™€ Online ๋ฐฉ์‹์ด๊ณ  batch๋Š” ์ „์ฒด ๋ฐ์ดํ„ฐ๋ฅผ ๊ธฐ์ค€์œผ๋กœ Online์€ ๋ฐ์ดํ„ฐ ํ•˜๋‚˜์”ฉ์„ ๊ธฐ์ค€์œผ๋กœ Weight๋ฅผ ์ตœ์‹ ํ™”ํ•˜๋Š” ๋ฐฉ์‹์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. Batch ํ•™์Šต๋ฐฉ๋ฒ•์€ ์ „์ฒด ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ Weight๋ฅผ ํ•œ ๋ฒˆ์— ์ตœ์‹ ํ™”ํ•˜๋Š” ๊ฒƒ์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. ์ „์ฒด ๋ฐ์ดํ„ฐ๋ฅผ ์ปค๋ฒ„ํ•  ์ˆ˜ ์žˆ์–ด์•ผ ํ•˜๋ฏ€๋กœ ํฐ ๋ฉ”๋ชจ๋ฆฌ๊ฐ€ ํ•„์š”ํ•˜๋‹ค. ๋˜ํ•œ ๋ชจ๋“  ๋ฐ์ดํ„ฐ๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ํ•˜๊ธฐ ๋•Œ๋ฌธ์— ์ตœ์ ํ™” Route๊ฐ€ ๊ฝค ์•ˆ์ •์ ์œผ๋กœ ๋‚˜์˜จ๋‹ค๋Š” ๊ฒƒ์ด ํŠน์ง•์ด๋‹ค. ๋ฐ˜๋ฉด Online Learning์€ Training instance๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ Weight๋ฅผ ์ตœ์‹ ํ™”ํ•˜๋Š” ๋ฐฉ์‹์œผ๋กœ ๋ฉ”๋ชจ๋ฆฌ๊ฐ€ ํ›จ์”ฌ ์ ๊ฒŒ ํ•„์š”ํ•˜๋‹ค. ํ•˜์ง€๋งŒ ๋ชจ๋“  ๋ฐ์ดํ„ฐ๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ์ตœ์‹ ํ™”๊ฐ€ ๋˜๋Š” ๊ฒƒ์ด ์•„๋‹ˆ๊ธฐ ๋•Œ๋ฌธ์— ์ตœ์ ํ™” Route.. 2022. 12. 5.
Linear Regression, Approach in SLE, probabilistic, Gradient Descent Supervised Learning์ด๋ž€ ์ฃผ์–ด์ง„ Dataset์— ํ•ด๋‹นํ•˜๋Š” Label ์ด ์กด์žฌํ•˜๋Š” Regression์ด๋ผ๊ณ  ํ•œ๋‹ค. Regression์€ ์ ์ ˆํ•œ ์„ ์„ ์ฐพ๋Š” ๊ณผ์ •์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. Regression์€ ๋ฐ์ดํ„ฐ์˜ ๋ถ„ํฌ๋ฅผ ์ž˜ ํ‘œํ˜„ํ•  ์ˆ˜ ์žˆ๋Š” ํ๋ฆ„์„ ์„ ํ‘œํ˜„ํ•˜๋Š” ๊ฒƒ์ด๊ณ  Classification์€ ๋ฐ์ดํ„ฐ๋ฅผ ์ž˜ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋Š” ๋ถ„๋ฅ˜์„ ์„ ์ฐพ๋Š” ๊ฒƒ์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. ์ฃผ์–ด์ง„ Data์˜ ๋ถ„ํฌ๋ฅผ d๋ผ๊ณ  ํ‘œํ˜„ํ•˜๋ฉด d๋Š” Input vector๋กœ ํ‘œํ˜„๋˜๊ณ  y๋Š” Label์— ํ•ด๋‹นํ•˜๋Š” desired output ์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. ์ด๋•Œ์˜ ์ฃผ์–ด์ง„ ๋ชฉํ‘œ๋Š” X์—์„œ Y๋กœ ๋Œ€์‘ํ•˜๋Š” ํ•จ์ˆ˜๋ฅผ ์ฐพ๋Š” ๊ฒƒ์ด๋‹ค. ๊ทธ๋ž˜์„œ 2๊ฐœ์˜ ๋Œ€ํ‘œ์ ์ธ Supervised Learning์„ ์‚ดํŽด๋ณด๋ฉด Regression์€ ์ฃผ์–ด์ง„ Input data X๊ฐ€ ์ด.. 2022. 12. 5.
Gradient Descent Method (RSS, RMSE, Coefficient of determination) ์œ„์˜ ๊ทธ๋ž˜ํ”„๋Š” MSE์— ํ•ด๋‹นํ•˜๋Š” ์˜ค์ฐจํ•จ์ˆ˜ ๊ทธ๋ž˜ํ”„์ด๋‹ค. ์ด ์˜ค์ฐจ์˜ ํ˜„์žฌ ์ง€์ ์—์„œ์˜ ๋„ํ•จ์ˆ˜๋ฅผ ๊ตฌํ•˜์—ฌ ๊ธฐ์šธ๊ธฐ๋ฅผ ๊ตฌํ•˜๊ณ  Iterative ํ•˜๊ฒŒ Weight๋ฅผ ์ตœ์‹ ํ™”ํ•˜๋Š” ๋ฐฉ์‹์— ๋Œ€ํ•œ ์‹œ๊ฐํ™” ์ž๋ฃŒ์ด๋‹ค. ์ด๋•Œ์˜ a๋Š” learning rate์ด๋‹ค. W๊ฐ€ ์ ์  ๊ธฐ์šธ๊ธฐ ๋ถ€ํ˜ธ์˜ ๋ฐ˜๋Œ€ ๋ฐฉํ–ฅ์œผ๋กœ ์ด๋™ํ•˜๋Š” ๊ฒƒ์„ ํ™•์ธํ•  ์ˆ˜ ์žˆ๋‹ค. RSS์™€ RMSE์˜ ๊ฐœ๋…์ด ๋“ฑ์žฅํ•œ๋‹ค. RSS๋Š” Mean์ด ์•„๋‹Œ Residual๋กœ ๊ฐ ์˜ค์ฐจ์˜ ์ œ๊ณฑ์„ ํ‰๊ท ๋‚ด๋Š” ๊ฒƒ์ด ์•„๋‹Œ ๊ทธ๋Œ€๋กœ ๋”ํ•œ ๊ฐ’์„ ๋งํ•œ๋‹ค. RMSE๋Š” MSE์— Root๋ฅผ ์”Œ์šด ํ˜•ํƒœ๋กœ Original ํ•œ ์˜ค์ฐจ์˜ ๊ฐ’์„ ํ‘œํ˜„ํ•˜๊ณ ์ž ํ•  ๋•Œ ์‚ฌ์šฉ๋œ๋‹ค. ์˜ค์ฐจ๊ฐ€ ์Œ์˜ ๊ฐ’์„ ๊ฐ€์ง€๊ธฐ ๋•Œ๋ฌธ์— ์ œ๊ณฑ์„ ํ•ด์„œ ํ‰๊ท ์„ ๊ตฌํ–ˆ๋Š”๋ฐ ๋ฐ˜๋Œ€๋กœ ๋ฃจํŠธ๋ฅผ ์”Œ์šฐ๊ฒŒ ๋˜๋ฉด ์›๋ž˜ ์˜ค์ฐจ์˜ ํฌ๊ธฐ์— ํ•ด๋‹นํ•˜๋Š” ๊ฐ’์„ ๊ตฌํ•  ์ˆ˜ ์žˆ๊ธฐ ๋•Œ๋ฌธ์ด๋‹ค. R^2์˜ ๊ฐœ.. 2022. 11. 2.
Introduction to Linear Regression. Perspective of SLE(System of Linear Equation) and Gradient Descent Supervised Learning์€ label์ด ์žˆ๋Š” ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•œ ํ•™์Šต์„ ์˜๋ฏธํ•œ๋‹ค. Unsupervised Learning์˜ ๊ฐ€์žฅ ํฐ ๋‘ ๊ฐ€์ง€ Task๋Š” Classification๊ณผ Density Estimation์œผ๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋‹ค. ์ด๋Š” ๋ถ„ํฌ์— ๋Œ€ํ•œ ๊ฐ€์ •์„ ํ•˜๋Š๋ƒ ์•ˆํ•˜๋Š๋ƒ์— ๋”ฐ๋ผ์„œ๋„ ์„ธ๋ถ„ํ™”๋˜์–ด ๋‚˜๋‰œ๋‹ค. ๋ฐ˜๋ฉด ์ด์˜ ๊ฒฝ์šฐ ๋ผ๋ฒจ๋ง์ด ์กด์žฌํ•˜๊ธฐ ๋•Œ๋ฌธ์— ๋ฐ์ดํ„ฐ๋ฅผ ์–ด๋–ป๊ฒŒ ํ•ด์„ํ•˜๊ณ  ๋ถ„๋ฅ˜ํ•˜๋Š” ์ง€์— ๋Œ€ํ•ด์„œ๋ฅผ ๋‹ค๋ฃฌ๋‹ค๊ณ  ์ดํ•ดํ•˜๋ฉด ๋œ๋‹ค. Supervised Learning์˜ ๊ฒฝ์šฐ label์ด ์žˆ๋Š” ๋ฐ์ดํ„ฐ๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ ํ•™์Šต์„ ํ•˜๊ณ  ์ตœ์ข… ๋ชฉํ‘œ๋Š” ๋ฐ์ดํ„ฐ X์—์„œ Y๋กœ ๋งตํ•‘ํ•  ์ˆ˜ ์žˆ๋Š” ํ•จ์ˆ˜ F๋ฅผ ์ฐพ๋Š” ๊ฒƒ์ด๋‹ค. ์ด ์—ญ์‹œ ๋ชจ๋ธ๋ง์— ํ•ด๋‹นํ•œ๋‹ค๊ณ  ๋ณด๋ฉด ๋œ๋‹ค. ๋‘ ๊ฐ€์ง€ ํฐ Task์— ๋Œ€ํ•ด์„œ๋Š” Regression์˜ ๊ฒฝ์šฐ ์—ฐ์†์ ์ธ ๋ถ„ํฌ์— ๋Œ€ํ•ด์„œ.. 2022. 11. 2.
Clustering using Centroid-based approach. What is k-Means Algorithm Centroid-based Approach๋Š” k-Means ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์‚ฌ์šฉํ•œ๋‹ค. ์ด ์ ‘๊ทผ ๋ฐฉ์‹์€ ๊ธฐ์กด์˜ Hierachicalํ•œ ๋ฐฉ์‹์ด Time๊ณผ Space๊ฐ€ ๋„ˆ๋ฌด ๋งŽ์ด ์†Œ์š”๋œ๋‹ค๋Š” ์ ์— ์ฐฉ์•ˆํ•˜์—ฌ ๋“ฑ์žฅํ•œ๋‹ค. ์ข€ ๋” ํšจ์œจ์ ์ธ ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์‚ฌ์šฉํ•œ Clustering ๋ฐฉ์‹์ด ํ•„์š”ํ•˜๋‹ค. k-Means์˜ ์žฅ์ ์€ ์ดํ•ดํ•˜๊ณ  ๊ตฌํ˜„ํ•˜๊ธฐ ์‰ฝ๋‹ค๋Š” ๊ฒƒ์ด์ง€๋งŒ ์˜ค์ง local minimun๋งŒ์ด ์–ป์–ด์ง„๋‹ค๋Š” ๊ฒƒ์ด ๋‹จ์ ์ด๋‹ค. ๋˜ํ•œ ์ดˆ๊ธฐํ™”ํ•˜๊ธฐ ํž˜๋“ค๊ณ  outlier์— ๋ฏผ๊ฐํ•˜๋‹ค๋Š” ๊ฒƒ์ด๋‹ค. k-Means ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ์•„์ด๋””์–ด์— ๋Œ€ํ•ด ์•Œ์•„๋ณด์ž. ๊ฐ๊ฐ์˜ ๋ฐ์ดํ„ฐ๋“ค์ด ๊ฐ๊ฐ์˜ Cluster๋กœ ๋…๋ฆฝ์ ์œผ๋กœ ํ• ๋‹น์‹œํ‚จ๋‹ค. Dissimilariy ๋ฐฉ์‹์œผ๋กœ ๊ฑฐ๋ฆฌ ์ธก์ • ๋ฐฉ์‹์„ ์ •์˜ํ•˜๊ณ , within cluster์˜ ํ‘œ์ค€ํŽธ์ฐจ๋ฅผ ์ตœ์†Œํ™”ํ•  ์ˆ˜ ์žˆ๋Š” Cluster๋กœ ๊ฒฐ์ •๋œ๋‹ค... 2022. 11. 1.
Understanding of Unsupervised Learning (Clustering Algorithm) Agglomerative Method. ๊ธˆ๊นŒ์ง€ ์‚ดํŽด๋ดค๋˜ Density Estimation์€ Data์— Label์ด ์กด์žฌํ•˜์ง€ ์•Š๋Š” Unsupervised Learning์— ํ•ด๋‹นํ•œ๋‹ค. ์ด๋Š” ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ผ๋ถ€์— ํ•ด๋‹นํ•œ๋‹ค. ๊ทธ๋ ‡๋‹ค๋ฉด ๋‹ค๋ฅธ Learning์˜ ๋ฐฉ๋ฒ•์€ ์–ด๋–ค ๊ฒƒ์ด ์žˆ๋Š”์ง€ ์‚ดํŽด๋ณด์ž. Unsupervised Learning์€ ์ฃผ์–ด์ง„ ๋ฐ์ดํ„ฐ์˜ Target Output ์ด ์กด์žฌํ•˜์ง€ ์•Š์•˜๋‹ค. Ground Truth ๊ฐ’์ด ์—†๋‹ค๊ณ ๋„ ํ‘œํ˜„ํ•œ๋‹ค. ์ฆ‰, Objective๋Š” ๋ฐ์ดํ„ฐ์˜ Interesting Pattern์„ ์ฐพ๋Š” ๊ฒƒ์ด๋‹ค. ์ด ์ค‘์— ๋‘ ๊ฐ€์ง€์˜ ๋Œ€ํ‘œ์ ์ธ ์ผ€์ด์Šค๊ฐ€ ์กด์žฌํ•˜๋Š”๋ฐ ์ฒซ์งธ๋Š” Density Estimation์ด๊ณ  ๋‘˜์งธ๋Š” Clustering์ด๋‹ค. Density Estimation์€ ์ƒ˜ํ”Œ ๋ฐ์ดํ„ฐ์˜ ๋ถ„ํฌ๋ฅผ ๋ชจ๋ธ๋งํ•˜๋Š” ๊ฒƒ์ด๊ณ  Clustering์€ ๋น„์Šทํ•œ ์ƒ˜.. 2022. 11. 1.
Understanding about Nonparametric Density Estimation. Parzen Window and kNN Method Parametric Distribution ๋ชจ๋ธ์˜ ๊ฒฝ์šฐ ๋ฐ์ดํ„ฐ์˜ ๋ถ„ํฌ ์ถ”์ •ํ•˜๊ธฐ๊ฐ€ ํŽธ๋ฆฌํ•˜๋‹ค๋Š” ์žฅ์ ์ด ์žˆ๋‹ค. ํ•˜์ง€๋งŒ ํŠน์ •ํ•œ functional form์— ์žˆ์–ด์„œ ์ œํ•œ์ ์ด๊ณ  ์ ํ•ฉํ•˜์ง€ ์•Š์€ ๊ฒฝ์šฐ๊ฐ€ ๋ฐœ์ƒํ•œ๋‹ค. ์ด์— ๋ฐ˜ํ•ด Nonparametric ๋ฐฉ๋ฒ•์€ ์ „๋ฐ˜์ ์ธ ๋ฐ์ดํ„ฐ ๋ถ„ํฌ์— ๋Œ€ํ•ด ๊ฐ€์ •์ด ์—†๋‹ค๋Š” ๊ฒƒ์ด ํŠน์ง•์ด๋‹ค. Nonparametric ๋ฐฉ๋ฒ•์œผ๋กœ๋Š” Histogram์ด ์žˆ๋‹ค. ๋‹น์—ฐํžˆ ํžˆ์Šคํ† ๊ทธ๋žจ์€ ๋งŽ์ด ๋“ค์–ด๋ดค์ง€๋งŒ ์ด๊ฒƒ์ด ์–ด๋–ป๊ฒŒ Nonparametricํ•œ ๋ฐฉ๋ฒ•์— ์†ํ•˜๋Š”์ง€ ์ƒ๊ฐํ•ด๋ณผ ํ•„์š”๊ฐ€ ์žˆ๋‹ค. Bin์ด๋ผ๋Š” ๊ฐœ๋…์ด ๋“ฑ์žฅํ•˜๋Š”๋ฐ ์ด๋Š” equally-spaced interval์ด๋ผ๊ณ  ์ƒ๊ฐํ•˜๋ฉด ๋œ๋‹ค. ๋™์ผํ•˜๊ฒŒ ๋ถ„๋ฅ˜๋œ ๊ตฌ๊ฐ„ ์†์— ํ•ด๋‹น Data๊ฐ€ ์–ผ๋งˆ๋‚˜ ๋“ค์–ด์˜ค๋Š”์ง€๋ฅผ ์ธก์ •ํ•˜๋Š” ๋ฐฉ์‹์„ ์ฑ„ํƒํ•œ๋‹ค๊ณ  ์ƒ๊ฐํ•˜๋ฉด ๋œ๋‹ค. Bin์˜ ๋„ˆ๋น„๋ฅผ Vi๋ผ๊ณ  .. 2022. 11. 1.