스터디일시 : 01/10 금요일 오후 6시 30분
스터디내용 :
CNN 과 Fully Network Layer 의 차이점
s는 output featuremap을 의미하고 , x는 input featuremap을 의미한다.
fully connected layer의 경우 input이 output featuremap의 픽셀값에 다 반영이 되지만,
CNN의 경우 input의 일부만이 반영이 된다.
CNN은 weight를 공유한다. 같은 색깔은 같은 weight를 의미한다.
ResNet이 왜 나오게 되었는가?
층이 깊어질 수록 vanishing gradient 문제가 발생하여
성능이 오히려 저하된다.
이문제를 해결하기 위해서 기존의 layer를 파라미터 없이
연결하여 성능저하를 막는다.
Residual Block 을 BottleNeck으로 왜 교체하는가?
Net 상에서 Parameter의 갯수가 감소하여 CNN의 연산 속도 향상 효과를 불러온다.
Resnet.pptx
1.14MB
'ML > 머신러닝' 카테고리의 다른 글
YOLO와 RCNN 분석 (0) | 2020.02.24 |
---|---|
Sliding window는 무엇일까?[object detection] (3) | 2020.02.24 |
Hyperparameter vs Parameter 과 Bias and Variance Tradeoff 고찰 (0) | 2020.02.24 |
Inception(GoogLeNet) (0) | 2020.02.24 |
optimizer의 의미와 종류 (0) | 2020.02.24 |