๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
๐Ÿš“ Self Study/๐ŸŸ  Deep Learning Basic

Deep Learning(Classification, Regression, Overfitting)

by UKHYUN22 2021. 12. 23.
728x90

Classification

 

์ž…๋ ฅ์ด ํŠน์ •ํ•œ ์นดํ…Œ๊ณ ๋ฆฌ ์ค‘ ํ•˜๋‚˜๋‹ค๋ผ๊ณ  ์ธ์‹ํ•˜๋Š” ๊ฒƒ. ์ˆซ์ž, ์„ฑ๋ณ„, ๊ตญ์  ๋“ฑ ์ •ํ•ด์ง„ ์นดํ…Œ๊ณ ๋ฆฌ ์ค‘ ํ•˜๋‚˜๋ฅผ ๋งž์ถ”๋Š” ๋ฌธ์ œ
์ž…๋ ฅ = ํŒจํ„ด , ์ถœ๋ ฅ = Input data์˜ ์นดํ…Œ๊ณ ๋ฆฌ

 

 

 

Regression
value ์ž์ฒด๋ฅผ ๋งž์ถฐ์•ผ ํ•˜๋Š” ๋ฌธ์ œ
Bankrupt prediction ์–ด๋–ค ํšŒ์‚ฌ๊ฐ€ ๋ถ€๋„๋‚  ํ™•๋ฅ ์„ ๊ณ„์‚ฐํ•˜๋Š” ๋ฌธ์ œ๊ฐ€ ํ•˜๋‚˜์˜ ์˜ˆ์‹œ
Sales Prediction : ๋ช‡ ๊ฐœ๊ฐ€ ํŒ”๋ฆด ๊ฒƒ ์ธ๊ฐ€
๋‹จ์ˆœํ•œ ์นดํ…Œ๊ณ ๋ฆฌ ๋ฌธ์ œ๊ฐ€ ์•„๋‹ˆ๋ผ Value๋ฅผ Estimate ํ•˜๋Š” ์ ‘๊ทผ์„ ํ•ด์•ผ ํ•œ๋‹ค.
Input Variable์ด ์ฃผ์–ด์ง„๋‹ค.
 
 
Regression Model
function์„ ํ•™์Šตํ•œ๋‹ค. y = F(x; 0)
1. linear regression
2. nonlinear regression
3. logistic regression (True False ๋…ผ๋ฆฌ์  ๊ฐ’์„ ์ถ”์ •ํ•˜๋Š” ๊ฒƒ)
 
 
Recognition System
๋ฌธ์ œ์˜ ์‹œ์ž‘์€ Target์ด ์žˆ์–ด์•ผ ํ•˜๊ณ  ์•„๋‚ ๋กœ๊ทธ์—์„œ ๋””์ง€ํ„ธ๋กœ ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์ ธ์˜ค๋Š” Sensing์„ ๊ฑฐ์นœ๋‹ค.
์ „์ฒด์˜ ์˜์ƒ ์ค‘ ์›ํ•˜๋Š” ๋ถ€๋ถ„๋งŒ ์ž˜๋ผ๋‚ด๋Š” ๊ณผ์ • Preprocessing ๋“ฑ์„ ๊ฑฐ์นœ๋‹ค.
ํ•ด๋‹น Segment๋ฅผ ๊ฑฐ์น˜๊ณ  Feature Extraction์„ ํ†ตํ•ด ๋ฐ์ดํ„ฐ๋กœ ๋ณ€ํ™˜์„ ํ•œ๋‹ค.
์ž…๋ ฅํ•˜๊ธฐ ์ข‹์€ ์ƒํƒœ๋กœ ๋ฐ”๊ฟ”์ ธ ์žˆ์œผ๋ฉด 0๊ณผ 1์˜ ์ƒํƒœ๋กœ ๋ฐ”๊ฟ”์„œ Classification์„ ํ•˜๊ณ  result๋ฅผ ์–ป๊ฒŒ ๋œ๋‹ค.
 

 

Why Feature Vector
์™œ ์ž…๋ ฅํŒจํ„ด์„ ๋ฒกํ„ฐ๋กœ ๋ฐ”๊ฟ”์•ผ ํ•˜๋Š”๊ฐ€?
Vector๋กœ ๋งŒ๋“ค๋ฉด ๋‹ค๋ฃจ๊ธฐ๊ฐ€ ์‰ฝ๋‹ค. ๊ฑฐ์˜ ๋Œ€๋ถ€๋ถ„์˜ ๋จธ์‹ ๋Ÿฌ๋‹ ํˆด์ด ์ž…๋ ฅ์ •๋ณด๊ฐ€ ๋ฒกํ„ฐ๋ผ๊ณ  ๊ฐ€์ •ํ•˜๋Š” ๊ฒฝ์šฐ๊ฐ€ ๋งŽ๋‹ค.
์˜์ƒ์˜ ํ˜•ํƒœ์™€ ํฌ๊ธฐ๊ฐ€ ๋‹ค์–‘ํ•  ์ˆ˜ ์žˆ๋Š” ๋ฐ ๊ณ ์ •๋œ ํ˜•ํƒœ๋กœ ๋ฒกํ„ฐ๊ฐ€ ๋“ค์–ด์™€์•ผ ์ฒ˜๋ฆฌ๋ฅผ ํ•  ์ˆ˜ ์žˆ๋‹ค๊ณ  ๊ฐ€์ •ํ•œ ๊ฒƒ์ด ๋งŽ๋‹ค.
์ค‘์š”ํ•œ ์ •๋ณด๋งŒ์„ ์ถ”์ถœํ•˜๊ฒ ๋‹ค Focus on relevant information. ์˜ˆ๋ฅผ ๋“ค์–ด ์–ผ๊ตด์„ ์ธ์‹ํ•  ๋•Œ ์ฝ”์˜ ์œ„์น˜ ์ž…์˜ ์œ„์น˜ ๋“ฑ์€
์ค‘์š”ํ•˜์ง€ ์•Š์€ ์ •๋ณด์ด๋ฏ€๋กœ Ignoreํ•ด์•ผ ํ•  ๊ฒฝ์šฐ๊ฐ€ ๋งŽ๋‹ค. ๊ทธ๋ฆฌ๊ณ  ํšจ์œจ์ ์ด๋‹ค.
 
 
Pattern Boundary
์ƒ์„ ์„ ์žก์•˜๋Š”๋ฐ ํ•˜๋‚˜๋Š” salmon(์—ฐ์–ด) ์ด๊ณ  ๋‹ค๋ฅธ ํ•˜๋‚˜๋Š” sea bass(๋†์–ด)์ด๋‹ค.
์šฐ์„  ๋ฐ์ดํ„ฐ๋ฅผ ๋ฒกํ„ฐ๋กœ ๋ฐ”๊ฟ”์•ผ ํ•œ๋‹ค. width ์™€ lightness์— ๋”ฐ๋ผ ๋ฐ์ดํ„ฐ๋ฅผ ๋ณ€๊ฒฝํ•œ๋‹ค.
์ด๋Ÿฐ ๊ณต๊ฐ„์„ Feature Space๋ผ๊ณ  ํ•œ๋‹ค. Feature Space์—์„œ ๊ตฌ๋ถ„์„ ์„ ์ฐพ์•„๋‚ผ ์ˆ˜ ์žˆ์œผ๋ฉด
์ด๊ฒƒ์„ Classification์˜ ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•˜๋Š” ๋ฐฉ๋ฒ•์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค.
 
 
Complexity and Generalization Ability
Overfitting์˜ ๊ฐœ๋…!!
์™ผ์ชฝ ๊ทธ๋ฆผ์ฒ˜๋Ÿผ ๊ฒฝ๊ณ„๋ฅผ ๊ทธ๋ฆด ์ˆ˜ ์žˆ๋Š”๋ฐ ๋™๊ทธ๋ผ๋ฏธ๋œ ๊ฒƒ๋“ค์€ ํ•ด๋‹น ๊ฒฝ๊ณ„์„ ์„ ๋„˜์–ด์„  ๋ถ€๋ถ„์˜ ์นดํ…Œ๊ณ ๋ฆฌ์ด๋‹ค.
๋ช‡ ๊ฐœ๋Š” ๋งž์ท„๊ณ  ๋ช‡ ๊ฐœ๋Š” ํ‹€๋ ธ๋Š”๋ฐ ํ•ด๋‹น ํŒจํ„ด์„ ๋ชจ๋‘ ๋งŒ์กฑ์‹œํ‚ค๋Š” ๊ฒฝ๊ณ„์„ ์„ ์กฐ์ •ํ•ด์•ผ ํ•˜๋Š”๊ฐ€?
๋ชจ๋“  ํŒจํ„ด์„ ๋งž์ถ”๋ ค๊ณ  ์กฐ์ •์„ ํ•˜๋ฉด ์˜ค๋ฅธ์ชฝ ๊ทธ๋ฆผ์ฒ˜๋Ÿผ Complex ํ•œ model์ด ๋งŒ๋“ค์–ด์ง„๋‹ค.
์•„์ง๊นŒ์ง€ ๊ด€์ฐฐํ•˜์ง€ ๋ชปํ•œ ์ƒˆ๋กœ์šด ์„ฑ๋Šฅ์— ๋Œ€ํ•œ ๊ธฐ๋Šฅ์ด ๋†’์•„์ง„๋‹ค.
์ง€๊ธˆ๊นŒ์ง€ ๋ณด์ง€ ๋ชปํ•œ ์ƒˆ๋กœ์šด ์ƒ˜ํ”Œ์ด ์ถ”๊ฐ€๋˜์—ˆ์„ ๋•Œ ์˜คํžˆ๋ ค ํ™•๋ฅ ์ด ๋†’์•„์งˆ ์ˆ˜ ์žˆ๋‹ค.
Overfitting์€ ๊ต‰์žฅํžˆ ๋ณต์žกํ•œ ๊ฒฝ์šฐ์— ์ƒ๊ธด๋‹ค. ๊ทธ๋Ÿฌ๋ฏ€๋กœ ๋„ˆ๋ฌด ๋ณต์žกํ•œ ๋ฐ์ดํ„ฐ๋ฅผ ์‚ฌ์šฉํ•˜๋ฉด ์•ˆ๋€๋‹ค.
๋ณต์žกํ•œ ๋ชจ๋ธ์˜ ๊ธฐ์ค€์€..?
๋ฐ์ดํ„ฐ๊ฐ€ ๋งŽ์€ ์ƒํƒœ์—์„œ๋Š” ๋ณต์žกํ•œ ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•ด๋„ ๋œ๋‹ค. ๋ฐ์ดํ„ฐ๊ฐ€ ์ ์€ ์ƒํƒœ์—์„œ ๋ณต์žกํ•œ ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•˜๋ฉด 
Overfitting์ด ๊ต‰์žฅํžˆ ์ž์ฃผ ๋ฐœ์ƒํ•œ๋‹ค. 

 

 

 

Overfitting
Training์— ๋Œ€ํ•œ error์™€ test์— ๋Œ€ํ•œ error์˜ ์ฐจ์ด๋ฅผ ๋น„๊ตํ•ด์•ผ ํ•œ๋‹ค.
Training์€ ์‹œํ—˜ ๊ณต๋ถ€ํ•  ๋•Œ์˜ ์—ฐ์Šต ๋ฌธ์ œ, Test๋Š” ์ˆ˜๋Šฅ ๋ฌธ์ œ๋กœ ๋น„์œ 
๋‹น์—ฐํžˆ Training data์— ๋Œ€ํ•œ ์„ฑ๋Šฅ์ด ๋†’๊ณ  ์—๋Ÿฌ๊ฐ€ ๋ฐœ์ƒํ•  ํ™•๋ฅ ์ด ํ›จ์”ฌ ๋‚ฎ๋‹ค.
์ฆ‰, ๊ณต๋ถ€๋ฅผ ํ•  ์ˆ˜๋ก ํ‹€๋ฆฌ๋Š” ๊ฐฏ์ˆ˜๊ฐ€ ์ค„์–ด๋“œ๋Š” ๊ฒƒ๊ณผ ๋งˆ์ฐฌ๊ฐ€์ง€ ์ด๋‹ค.
Training data๋Š” ํ•™์Šต์„ ํ•  ์ˆ˜๋ก ๋‚ฎ์•„์ง€์ง€๋งŒ Test data์— ๋Œ€ํ•œ error ๋Š” ์ผ์ • ๋ถ€๋ถ„ ์ดํ›„๋กœ๋Š” ์ฆ๊ฐ€ํ•  ์ˆ˜ ์žˆ๋‹ค.
์ด๋Ÿฌํ•œ ๊ฒƒ์„ Overfitting์ด๋ผ๊ณ  ๋ณด๋Š”๋ฐ training data์™€ test data์˜ ์—๋Ÿฌ์˜ ๊ฒฉ์ฐจ๊ฐ€ ๋ฒŒ์–ด์ง€๊ธฐ ์‹œ์ž‘ํ•˜๋Š” ์‹œ์ ์ด Overfitting์ด ๋œ๋‹ค.