Deep Learning
ImageNet Dataset
์์์ธ์ ์ฑ๋ฅ, Image-net์ด๋ผ๋ ๋ฐ์ดํฐ Set์ด ์๋ค.
ILSVRC
2012๋
๋ฅ๋ฌ๋์ด ์ ์ฉ๋๊ณ Error Rate๊ฐ ํจ์ฌ ์ค์๋ค.
์ฌ๋์ Error rate๋ 5ํ๋ก๋ผ๊ณ ๋ณด๋ฉด ๋๋ค.
Instance Segmentation
Object๊ฐ ์ด๋์๋์ง ์ฐพ์๋ด๊ณ Pixel ๋จ์๋ก ์ค๋ฃจ์ฃ์ ๋ง๋ค์ด์ฃผ๊ฒ ๋๋ค.
Image Synthesis: ProGAN
Neural Net์ด ๋ง๋ค์ด๋ธ ์ฌ๋๋ค ์ผ๊ตด
Deep Learning
Layer๊ฐ ๊ต์ฅํ ๋ง๋ค. ์์ญ๊ฐ์์ ์ฒ ๊ฐ๊น์ง ์ฌ์ฉ์ ํ๋ค. ์ Layer๊ฐ ๋ง์ผ๋ฉด ์ข์๊ฐ? ์
๋ ฅ ์ ๋ณด๋ฅผ Merge ํ๊ฒ ๋๋๋ฐ ๋ฐ์ ์๋ Layer๋ณด๋ค ์์ ๊ฒ์ด ์ข ๋ High Level์ด ๋๋ค.
Why Deep Learning
High-Level feature
Challenges in Deep Learning
Layer๊ฐ ๋ง์์ง๋ฉด Back Propation์ด ์๋์ ํ์ง ์๋๋ค. Vanishing gradient problem ๋ฌธ์ ๊ฐ ์๋ค.
Vanishing Gradient Problem
๋ค์ชฝ์ผ๋ก ๊ฐ ์๋ก Gradient๋ก ๊ฐ ์๋ก ํฌ๋ฏธํด์ง๋ค๋ ๊ฒ. ์ด๋ฐ์๋ ํ์ต์ด ์ ์ด๋ฃจ์ด์ง๋ ๋ค๋ก ๊ฐ ์๋ก ํ์ต์ด ๋์ง ์๋๋ค๋ ๊ฒ์ด๋ค.
Vanishing Gradient Problem
i: ๋ฐ์ Layer j: ์์ Layer
ํด๋น ๋ฐ์ดํฐ๊ฐ ์์ ๋ ์๋์ Layer๋ฅผ ๊ตฌํ๋ ค๊ณ ํ๋ค. ์ ํต์ ์ผ๋ก Neural Net์ Sigmoid๋ฅผ ์ฌ์ฉํ๋ค. ํ์ง๋ง 1๊ณผ -1 ์ฃผ๋ณ์ ์๊ฐํด๋ณด์ ๊ธฐ์ธ๊ธฐ๊ฐ ์๋งํด์ง๋ค. ์ด๋ค ๊ฐ์ 0์ ๊ฐ๊น์ด ๊ฐ์ด ๊ณ์ํด์ ๊ณฑํด์ง๋ฉด 0์ ๊ฐ๊น์ ์ง๋ค. (Saturated Regime ์ด๋ผ๊ณ ๋ถ๋ฅธ๋ค)
๋ ๋ฒ์งธ๋ก Weighted Sum์ด๋ผ๋ ํํ๋ก merge๊ฐ ๋๋ ๊ณผ์ ์ ๊ฑฐ์น๋ค. ๋ฐ๋ก๋ฐ๋ก ๋ณด๋ฉด ์ ๋ช
ํ ์์ ๊ฐ๊ณ ์๋ ๊ฒ์ด
Merge๋ฅผ ํ๊ฒ ๋๋ฉด ๊ทน๋จ์ ์ธ ๊ฐ์ ๊ฐ์ง๊ณ ์๋ ๊ฐ์ ํ๊ท ๊ฐ์ ๊ฐ์ง๊ฒ ๋๋ฏ๋ก ๊ฐ๊ฐ์ ๊ณ ์ ํ ํน์ง ๊ฐ์ด ์ฌ๋ผ์ง๋ ํน์ง์ด ์๋ค๋ ๊ฒ์ด๋ค.
Local Minima, Saddle Point, Plateau
Error๊ฐ์ด ๋์๋ฐ ๊ธฐ์ธ๊ธฐ๊ฐ ๊ฑฐ์ ์๋ ๊ฒฝ์ฐ ํ์ต์ด ์ ์๋๋ Case๊ฐ ์๊ธด๋ค.
Saddle Point
: ์ด๋ค ๋ถ๋ถ์์ ๊ฐ์ด ์ต๋๊ฐ ๋๊ณ ๋ค๋ฅธ ๋ถ๋ถ์์๋ ์ต์๊ฐ ๋๋ ๊ฒฝ์ฐ.
Overfitting
ํด๊ฒฐ์ฑ
: ๋ฐ์ดํฐ๋ฅผ ๋ง์ด ๋ชจ์ผ๊ณ Model์ ๋จ์ํ๊ฒ ๋ง๋๋ ๊ฒ์ด๋ค.
Deep Learning Approaches
์ด๊ธฐ์๋ Pre-training ๋ชจ๋ธ์ด ์ฌ์ฉ๋์๋ค. Network ์์ฒด๊ฐ Vanishing Gradient Problem์ ์ต์ํ ํ ์ ์๋ ๋ชจ๋ธ์ ์ฌ์ฉํ๋ค. -> Convolutional Nearal Network๋ Gated Units๊ฐ ์๋ ๋ชจ๋ธ์ด ๊ทธ์ ํด๋นํ๋ค. ReLU Function์ ์ฌ์ฉํ๋ฉด 0 ์๋๋ฉด 1์ด๊ธฐ ๋๋ฌธ์ ๊ทนํ๊ฐ ์ฃผ๋ณ์ ๊ธฐ์ธ๊ธฐ๋ 1์ด ๋์ค๊ธฐ ๋๋ฌธ์ ์ํฅ์ด ์ ๋ค๋ ๊ฒ์ด๋ค.
Skip connection : Nueral์์ ๊ต์ฅํ ์ค์ํ ์ญํ ์ ํ๋ค. Batch Normalization / Xavier Initialization