728x90
Activation Function
" Non-linearity Function " ์ด๋ผ๊ณ ๋ถ๋ฆฐ๋ค.
Weighted sum์ ํ ๋ฒ ๋ ์ฒ๋ฆฌํด์ฃผ๋ ์ญํ ์ ํ๋ค.
Activation Functions
Sigmoid ํจ์ :
Hyperbolic Tangent ํจ์ : -1์์ +1๊น์ง์ ๊ฐ์ ๊ฐ์ง๋ค.
ReLU ํจ์ : net value์ 0 ์ฌ์ด์ max๊ฐ์ ์ทจํ๋ ๊ฒ.
Softmax function
์ฌ๋ฌ ๊ฐ์ ์นดํ
๊ณ ๋ฆฌ๋ฅผ ๋ํ๋ด๋ ๊ฒ์ ํ๋ฅ ์ ์ผ๋ก ํํํ๊ณ ์ถ์ ๋ ์ฌ์ฉํ๋ค.
ํ๋ฅ ์ 0์์ 1 ์ฌ์ด์ ๊ฐ์ ๊ฐ์ ธ์ผ ํ๋ค. ํ์ง๋ง Net Value๋ ์ ๋๋ก ํ๋ฅ ์ด ์๋๋ค.
๊ทธ๋์ Exponential์ ์ทจํด์ ์ ๋ถ ์์๋ก ๋ณ๊ฒฝ์ ํ๊ณ ๋ชจ๋ node์ ๋ํ Exp ๊ฐ์ ๋ํด์ ๋๋๊ฒ ๋๋ค.
๊ทธ๋ ๋ค๋ฉฐ ์ ์ฒด ๊ฐ๋ค์ 1๋ณด๋ค ํฐ ๊ฐ์ด ๋์ค์ง ์๋๋ค. score ๊ฐ์ด ๋ค์ด์์ ๋ Softmax function์ ๊ฑฐ์น๋ค๋ฉด
ํ๋ฅ ์ ์ ๊ทผ์ด ๊ฐ๋ฅํ๊ฒ ๋๋ค.
Activation Functions
Hidden Unit
: ๊ฑฐ์ ๋๋ถ๋ถ ReLU๋ฅผ ์ฌ์ฉํ๊ณ ํน์ ํ ๊ฒฝ์ฐ LReLU์ PReLU๋ฅผ ์ฌ์ฉํ๋ค.
: Hyper Tagzent๋ฅผ ๋ง์ด ์ฌ์ฉํ๋ ๊ฒฝ์ฐ๋ ์๋ค. recurent networtk๋ฅผ ์ฌ์ฉํ๋ ๊ฒฝ์ฐ์..!!!
: ์ผ๋ฐ์ ์ธ Network์์๋ ReLU function์ ๋ง์ด ์ฌ์ฉํ๋ค.
Output Unit
: regression์ ํ๋ ๊ฒฝ์ฐ activation function์ ์ํ๋ ๊ฒฝ์ฐ๊ฐ ๋ง๋ค.
-> identity function์ ์ฌ์ฉํด์ -๋ฌดํ๋์์ +๋ฌดํ๋์ ๊ฐ์ผ๋ก ์ธํ
ํ ์ ์๋ค.
Tanh
: -1์์ +1 ์ฌ์ด๋ก ๊ฐ์ ๋จ์ ํ๊ณ ์ถ์ ๋
Softmax