Category43 [Boostcamp AI Tech] CNN (Convolutional Neural Network) Convolution Convolution 연산은 Kernel/Filter가 Image위를 이동하면서 Element-wise product를 수행한 후 모두 더해주면서 값을 얻어낸다. 32x32x3 image가 입력으로 들어오고, 5x5x3 filter가 4장 있다면 28x28x4의 feature map이 출력된다. 이처럼 입력 사이즈를 알고 filter의 사이즈와 개수를 안다면 출력의 사이즈를 계산할 수 있다. 또한 입력 사이즈와 출력 사이즈를 안다면 filter 사이즈와 개수를 계산할 수도 있다. 그리고 이 때 feature map을 얻기 위해 필요한 파라미터의 수는 4x5x5x3으로 filter의 사이즈와 개수의 곱으로 이해할 수 있다. CNN은 Convolution Layer, Pooling La.. 2021. 8. 14. [Boostcamp AI Tech] Optimization Optimization의 중요 개념 1) Generalization (일반화) 입력 데이터가 학습 데이터와 달라도 출력에 대한 성능 차이가 나지 않도록 하는 것을 Generalization라 함 일반적으로 학습을 진행하면서 특정 시점이 지나면 Training error는 감소하고, Test error는 오히려 증가하면서 모델의 성능이 떨어짐 Generalization Performance는 Training error와 Test error의 차이( Generalization gap)를 의미하며, 이 차이가 적을수록 네트워크의 성능이 학습데이터와 비슷할 거라고 보장해 줌 2) Overfitting (과대적합), Underfitting (과소적합) - Overfitting 학습데이터에 대해 과하게 학습하여 학.. 2021. 8. 11. [Boostcamp AI Tech] Historical Review of Deep Learning 오늘의 부캠 지난 1주차에 Python과 기본적인 수학적 개념을 익힌 후 본격적으로 DL에 들어가는 2주차가 되었다. 오늘은 딥러닝 기본적인 용어들과 주요 중요 논문/모델 등을 연도에 따라 간단하게 접하는 시간을 가졌고, MLP를 다시 한번 리마인드하는 시간과 추가적으로 데이터 시각화의 기초라 할 수 있는 matploblib을 다뤘다. 이번 주 선택과제 역시 만만찮은 것들이 나왔지만... 시작해봐야지! 딥러닝의 주요 구성요소 1) 데이터 : 데이터는 해결할 문제 형태에 따라 결정됨 2) 모델 : 모델은 데이터가 주어졌을 때 직접적으로 알고싶은 값으로 바꿔주는 것 3) 손실 함수 : 손실 함수는 데이터와 모델이 주어졌을 때 모델을 어떻게 학습할지 정의하는 것 4) 최적화 알고리즘 : 데이터, 모델, 손실 .. 2021. 8. 9. [Boostcamp AI Tech] 1주차 학습정리 1주차 학습 회고 Boostcamp AI Tech의 1주차를 마무리했다.(이겨냈다?) 전반적으로 Pre-Course의 강의 영상을 복습하는 한 주였기 때문에 무난무난할 것이라 생각했지만.... 주어지는 과제들과 퀴즈들을 풀면서 내가 이해한다고 생각했던 것들은 사실 이해한 게 아니었다는 것을 깨닫게 되었다. 특히, 수식적인 부분과 그동안 잘 짜여진 모듈을 이용해서 다뤘던 것들을 원리를 따라 line by line으로 구현하는 것이 참 어렵게 느껴졌었다. 앞으로는 들은 것을 그저 안다고 치부하지 않고 정리하면서 내걸로 만드는 연습을 해야겠다. + 일주일치를 몰아서 정리한다는 생각은 버릴 예정이다 ㅠ.ㅠ This week I Learned (TIL) 1. 미분의 사용처 & 경사하강법 미분은 함수 f의 주어진 .. 2021. 8. 6. 이전 1 2 3 4 5 6 7 8 ··· 11 다음