๐ Self Study/๐ Deep Learning Basic14 Deep Learning(Fully-connected Layers, CNN in PyTorch) Fully connected Layers Neural Network์ ๋ง์ง๋ง์ Classification ๋๋ Regression์ ์ํํ๋ค. ๋ง์ด ์ฌ์ฉ๋๋ Regression์ด Detection์ด๋ค. ์ด๋ค ์ค๋ธ์ ํธ๊ฐ ์์ ๋ Bounding Box๋ฅผ ์ฐพ์๋ด๋ ๊ฒ์ ์๋ฏธํ๋ค. ์ด๊ฒ์ด Regression ๋ฌธ์ ๋ก ํ๋ฆฐ๋ค. CNN in PyTorch ํ์ด์ฌ์์ ํด๋์ค๋ฅผ ์ ์ํ๋ ๋ฌธ๋ฒ. nn.Modulel์ด๋ผ๋ ํด๋์ค๋ฅผ ์์๋ฐ์์ Net์ ์ ์ํ๊ฒ ๋ค. def๋ ๋ฉ์๋์ ํด๋นํ๋๋ฐ, __init__ ์ ์ปจ์คํธ๋ญํฐ์ ํด๋นํ๋ค. Neural Network๋ฅผ ์ ์ํ๋ค. ์ ๋ ฅ Layer(RGB)๊ฐ ๋ค์ด์์ 6๊ฐ์ Feature๋ฅผ ๋ง๋ค์ด๋ธ๋ค. ๊ทธ ๋ค์ Max-pooling์ ํตํด์ ์ ๋ฐ ํฌ๊ธฐ๋ก ์ค์ธ๋ค. ๋ค์ Convolu.. 2022. 1. 4. Deep Learning(CNN, Convolution Layers, Dilated Layers, Separable Convolution, Max-Pooling Convolution) Convolution Network Deep Learning Layer๊ฐ ๋ง์ ์ฌ์ธต ์ ๊ฒฝ๋ง์ ์ฌ์ฉํ๊ณ layer ํ๋๋ Weighted Sum์ ํ์ฉํ๋ค. W๋ ๋ฐ์ดํฐ๋ก๋ถํฐ ํ์ต์ ํ๋ ํ๋ผ๋ฏธํฐ์ด๊ณ ๋ง์ง๋ง์๋ Loss function์ ์ ์ํ๋ค. ์ฆ, ๋ชจ๋ Layer์ Weight๋ฅผ ์ต์ ํํ๋ ๊ฒ. ์ด๋ฅผ ๊ฒฐ์ ํ๋ ๊ณผ์ ์ด ํ์ตํ๋ ๊ณผ์ ์ด ๋๋ค. Layer์ ๊ฐ Operation์ ์ ๋ ฅ ์ ๋ณด๋ฅผ Weighted Sum์ผ๋ก mergeํ๋๋ฐ ์ด๋ค ๋น์จ๋ก Merge ํ๋๊ฐ๊ฐ ํฌ์ธํธ Deep Learning Architecture CNN -> ์์์ฒ๋ฆฌ, ์์ฐ์ด, ์์ฑ์ธ์ : ๋ณ๋ ฌ ์ฒ๋ฆฌ์ ์ํ ์๋ ํฅ์์ ๋ ์ ์ด๋์ด๋ผ ์ ์๋ค. : ์์ฐ์ด : Machine Translation์ ํจ๊ณผ๊ฐ ๋ ์์๋ค. RNN -> T.. 2021. 12. 29. Deep Learning(Regularization, Transfer learning, Internal Converiate Shift, Batch Normalization, ReLU Activation Fuction, Sparse Coding) Practical Problem and Solution Practical Issues Training Data๋ฅผ ๋ง์ด ํ์๋ก ํ๋ค. ์ด์ ๋ํ ํด๊ฒฐ์ฑ ์ ๋ฐ์ดํฐ๋ฅผ ๋ง์ด ๋ชจ์ผ๋ ๊ฒ์ด๊ณ ์ต๊ทผ ๋จธ์ ๋ฌ๋์ ํ๋ ์ฌ๋๋ค์ด ๋ฐ์ดํฐ๋ฅผ ๋ง์ด ๋ชจ์๋์๋ค๋ ๊ฒ. Regularization techinque / data augmentation : ์ ์ ๋ฐ์ดํฐ๋ก๋ถํฐ ๋ง์ ๋ฐ์ดํฐ๋ฅผ ํฉ์ฑํด๋ด๋ ๊ฒ Unsupervised / semi-supervised / reinforcement learning : ์ ๋ต์ด ์๋ ํผ๋๋ฐฑ๋ง์ผ๋ก ์งํ๋๋ค๋ ์ Computation ์ ๋ง์ด ํ์๋ก ํ๋ค. Regularization Boundary๊ฐ ๋ณต์กํ๋ฉด training data์ ๋ํด์๋ ์ํ์ง๋ง ์ง๊ธ๊น์ง ๋ณด์ง ๋ชปํ๋ ๋ฐ์ดํฐ์ ๋ํด์ ์ฒ๋ฆฌํ๊ธฐ ํ๋ค๋ค.. 2021. 12. 29. Deep Learning(Deep Generate Model, Convolutional Neural Networks, Recurrent Neural Network) Deep Learning Approaches Convolution Layer์์ ๊ฐ์ฅ ์ค์ํ ๊ฒ์ Convolution Layer์ด๋ค. -> Position Invariant ํ Local์ feature ํ๋ค. ์ ๋ ฅ์ด ๋ค์ด์์ Output๊น์ง ์ญ์ฑ ๊ฐ๋ ๊ฒ. RNN(Recurrent Nearal Network) ๊ณผ๊ฑฐ๊ฐ ํ์ฌ์ ์ํฅ์ ์ฃผ๋ Time-series data์ ๋ถ๋ถ์ผ๋ก ์ฐ์ธ๋ค. FeedBack์ ํด์ฃผ๋ Node๊ฐ ์กด์ฌํ๋ค. ํ์ฌ์ Input๊ฐ๊ณผ Context๊ฐ ํฉ์ณ์ ธ์ ์ฌ์ฉ์ด ๋๋ค๋ ๊ฒ. Deep Generative Model ๊ฐ์ฅ ์ ๋ช ํ๊ฒ์ GAN ๋คํธ์ํฌ์ด๋ค. Attention Model ๋ฑ์ด ์กด์ฌํ๋ค. Convolutional Neural Network Layor๋ค์ด 3์ฐจ์ ๊ตฌ์กฐ๋ก ๊ตฌ์ฑ์ด.. 2021. 12. 29. Deep Learning(ImageNet, ProGAN, Vanishing Gradient Problem) Deep Learning ImageNet Dataset ์์์ธ์ ์ฑ๋ฅ, Image-net์ด๋ผ๋ ๋ฐ์ดํฐ Set์ด ์๋ค. ILSVRC 2012๋ ๋ฅ๋ฌ๋์ด ์ ์ฉ๋๊ณ Error Rate๊ฐ ํจ์ฌ ์ค์๋ค. ์ฌ๋์ Error rate๋ 5ํ๋ก๋ผ๊ณ ๋ณด๋ฉด ๋๋ค. Instance Segmentation Object๊ฐ ์ด๋์๋์ง ์ฐพ์๋ด๊ณ Pixel ๋จ์๋ก ์ค๋ฃจ์ฃ์ ๋ง๋ค์ด์ฃผ๊ฒ ๋๋ค. Image Synthesis: ProGAN Neural Net์ด ๋ง๋ค์ด๋ธ ์ฌ๋๋ค ์ผ๊ตด Deep Learning Layer๊ฐ ๊ต์ฅํ ๋ง๋ค. ์์ญ๊ฐ์์ ์ฒ ๊ฐ๊น์ง ์ฌ์ฉ์ ํ๋ค. ์ Layer๊ฐ ๋ง์ผ๋ฉด ์ข์๊ฐ? ์ ๋ ฅ ์ ๋ณด๋ฅผ Merge ํ๊ฒ ๋๋๋ฐ ๋ฐ์ ์๋ Layer๋ณด๋ค ์์ ๊ฒ์ด ์ข ๋ High Level์ด ๋๋ค. Why Deep Learning H.. 2021. 12. 29. Deep Learning(Gradient and Jacobian, Back Propagation, Training of 1st , 2nd Layer) Gradient and Jacobian Gradient Vector ์ค์นผ๋ผ ๊ฐ์ ๋ฒกํฐ๋ก ๋ฏธ๋ถํ๋ฉด ์ป์ด์ง๋ ๊ฒ. Error function์ ๋ฒกํฐ๋ก ๋ฏธ๋ถํ๋ฉด Gradient๋ฅผ ์ป๋๋ค. ๋ฒกํฐ๋ฅผ ๋ฒกํฐ๋ก ๋ฏธ๋ถํ๋ ๊ฒฝ์ฐ Matrix ํํ๋ก ๋ํ๋๊ฒ ๋๋๋ฐ ๊ทธ๊ฒ์ Jacobian Matrix ๋ผ๊ณ ํ๋ค. output์ ๊ฐ์์ Input์ ๊ฐ์๋ก ์ ํ์ด๋ก ์ด๋ฃจ์ด์ง Matrix๊ฐ ๋๋ค. ๋ฒกํฐ๋ผ๋ฆฌ์ Chain rule์ Matrix์ ํํ๋ก ๋ํ๋๋ค๊ณ ๋ณผ ์ ์๋ค. ์ถ๋ ฅ๊ฐ์ ๋ํ Gradient์ Jacobian ํ๋ ฌ์ ๊ณฑํ๋ฉด Input๊ฐ์ ๋ํ Gradient๊ฐ ๋์จ๋ค. Back-Propagation on NEaral Nets ๋ฐ์ layer์์ ๋ฒกํฐ๊ฐ ์ฌ๋ผ์ค๋ฉด Weighted Sum์ ํด์ Output์ ๋ด์ฃผ๊ฒ ๋.. 2021. 12. 29. Deep learning (MLP Learning, Loss Function, Back Propagation, Matrix Notation, Chain Rule) Back-propagation MLP Learning Layer ํ๋๋ฅผ ๋ํ๋ผ ๋ x์ super script๋ฅผ ์ฐ๊ฒ ๋ค๊ณ ๊ฐ์ . X0 ๋ input vector๊ฐ ๋๋ค. Label์ ํด๋นํ๋ ๋ ธ๋๋ ์ ๋ถ 1 loss function์ Desired ouput๊ณผ real output ์ฌ์ด์ ์ฐจ์ด์ ํด๋นํ๋ค. ์ผ๋จ ์์์ ์ ๋๋คํ node์์ ์์ํด์ ์กฐ๊ธ์ฉ gradient๋ฅผ ๋นผ์ค์ผ๋ก์จ ํ์ต์ ์์ํ๋ค. Loss Function(Error Criteria) ์ต์ข output Layer์์ desired output ๊ฐ์ ๋นผ๊ณ ์ ๊ณฑ์ ํด์ C๊ฐ์ ํด๋นํ๋ ๊ฒ ๋งํผ ๋๋ ์ค๋ค. ๊ทธ๋ฌ๋ฉด Error๋ฅผ ์ฐพ์ ์ ์๊ณ Mean square๋ฅผ ํ๊ฒ ๋๋ ๊ณผ์ ์ด ๋๋ค. ์ต๊ทผ์ ๋ค์ด์ Cross entropy function.. 2021. 12. 23. Deep learning (Activation Function, softmax, Hidden Units, Output Units) Activation Function " Non-linearity Function " ์ด๋ผ๊ณ ๋ถ๋ฆฐ๋ค. Weighted sum์ ํ ๋ฒ ๋ ์ฒ๋ฆฌํด์ฃผ๋ ์ญํ ์ ํ๋ค. Activation Functions Sigmoid ํจ์ : Hyperbolic Tangent ํจ์ : -1์์ +1๊น์ง์ ๊ฐ์ ๊ฐ์ง๋ค. ReLU ํจ์ : net value์ 0 ์ฌ์ด์ max๊ฐ์ ์ทจํ๋ ๊ฒ. Softmax function ์ฌ๋ฌ ๊ฐ์ ์นดํ ๊ณ ๋ฆฌ๋ฅผ ๋ํ๋ด๋ ๊ฒ์ ํ๋ฅ ์ ์ผ๋ก ํํํ๊ณ ์ถ์ ๋ ์ฌ์ฉํ๋ค. ํ๋ฅ ์ 0์์ 1 ์ฌ์ด์ ๊ฐ์ ๊ฐ์ ธ์ผ ํ๋ค. ํ์ง๋ง Net Value๋ ์ ๋๋ก ํ๋ฅ ์ด ์๋๋ค. ๊ทธ๋์ Exponential์ ์ทจํด์ ์ ๋ถ ์์๋ก ๋ณ๊ฒฝ์ ํ๊ณ ๋ชจ๋ node์ ๋ํ Exp ๊ฐ์ ๋ํด์ ๋๋๊ฒ ๋๋ค. ๊ทธ๋ ๋ค๋ฉฐ ์ ์ฒด ๊ฐ๋ค์ 1.. 2021. 12. 23. Deep learning (Multi-Layer Perceptron) Multi-Layer Limitation of Single-Layer Perception XOR ๋ฌธ์ 11 ์ด๋ 00 ์ด ๋ค์ด๊ฐ๋ฉด 0์ด ๋์ค๊ณ 01 ์ด๋ 10 ์ด ๋ค์ด๊ฐ๋ฉด 1์ด ๋์์ผ ํ๋ค. Neural Network๊ฐ ์ด ๊ฒฝ๊ณ์ ์ ์ ๋ง๋ค ์ ์์ด์ผ ํ๋ค. ์ฆ ์ง์ ์ผ๋ก ๊ตฌ๋ถ๋ ์ ์๋ ๋ฌธ์ ์ฌ์ผ ํ๋ค. output์ด 0๊ณผ 1์ ๋ด๋ class๊ฐ 2๊ฐ ์กด์ฌํ๋ค. ํ์ง๋ง ์ด ๋ฌธ์ ๋ ์ง์ ํ๋๋ฅผ ๊ฐ์ง๊ณ Classification ๋ฌธ์ ๋ฅผ ํ ์ ์๋ค. ์ฆ, XOR ๋ฌธ์ ๋ ํด๊ฒฐ์ ํ์ง ๋ชปํจ์ผ๋ก Single Layer์ ๋ฌธ์ ์ ์ด ๋ฐ๊ฒฌ๋์๋ค. Multi Layer Perceptron ์ง์ 2 ๊ฐ H1 ๊ณผ H2๊ฐ ์กด์ฌํ๋ค๊ณ ๊ฐ์ ํด๋ณด์. ๊ฐ๊ฐ์ ์ง์ ์ Perceptron์ ํตํด์ ํํํ ์ ์๋ค. y1๊ณผ y2๋ฅผ ๊ฐ๊ฐ์ .. 2021. 12. 23. Deep learning (Gradient Descent, Chain Rule, Learning Rate) Neural Network Classifier Gradient Descent ๋ฏธ๋ถ์ ํตํด์ Optimizeํ๊ฒ ๋๋ค. ํ๋์ ์ค์นผ๋ผ ๊ฐ์ W์ ๋ํด ๋ฏธ๋ถ์ ํ๊ฒ ๋๋ค. W์ ๊ฐ์ ์ผ๋ ฌ๋ก ์ธ์์ ์ผ์ฐจ์ ๋ฒกํฐ์ธ ๊ฒ์ผ๋ก ์๊ฐํ์. scalar ๊ฐ์ ๋์ดํ๋ฉด ๋ค์๊ณผ ๊ฐ์ ์์ ์ป์ ์ ์๋ค. (๊ฐ์ฅ ์ค๋ฅธ์ชฝ ์) ์ด๋ฌํ ๋ฒกํฐ๋ฅผ Gradient ๋ฒกํฐ๋ผ๊ณ ํ๋ค. ๊ฐ๊ฐ Element๋ค์ด ํด๋น Weight๋ก ๋ฏธ๋ถ์ด ๋๊ฒ์ด Gradient ๋ฒกํฐ๋ผ๊ณ ํ๋ค. ์ํ์ ์ผ๋ก Error surface์ error๊ฐ ๊ธ๊ฒฉํ๊ฒ ๋ณํ๋ ๋ฐฉํฅ์ด๋ผ๊ณ ๋ณผ ์ ์๋ค. W์ Gradient๋ฅผ ๋ง์ด๋์ค ํ๋ค๋ ๊ฒ์ ๋ฐ๋ ๋ฐฉํฅ์ผ๋ก ๊ฐ๋ค๋ ๊ฒ์ ์๋ฏธํ๋ค. ๊ฐ์ํ๋ ๋ฐฉํฅ์ผ๋ก ์ด๋ํ๊ฒ ๋๋ค. ํ์ฌ Weight์์ Gradient๋ฅผ ๋นผ์ฃผ๋ ๊ฒ์ด Gradie.. 2021. 12. 23. ์ด์ 1 2 ๋ค์