본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Computer Vision37

[2024-2] 박지원- SENet(Squeeze-and-Excitation Networks) #Squeeze-and-Excitation Networks (2017) Paper ) https://arxiv.org/abs/1709.01507  Squeeze-and-Excitation NetworksThe central building block of convolutional neural networks (CNNs) is the convolution operator, which enables networks to construct informative features by fusing both spatial and channel-wise information within local receptive fields at each layer. A broaarxiv.org1) SENet의 등장 계기- Squ.. 2024. 12. 19.
[2024-2] 김수용 - Object Detection R-CNNR-CNN은 먼저 Selective Search 를 통해 이미지에서 물체가 있을 법한 약 2천 개의 영역을 제안합니다. 각 영역을 Crop한 후 고정된 사이즈로 변환하여 CNN에 입력할 수 있도록 준비하며, 이를 통해 고정된 길이의 Feature 벡터를 추출합니다. 이렇게 추출된 벡터를 기반으로 SVM을 사용해 Classification을 수행하고, Regression을 통해 박스 위치를 조정합니다. 하지만 제안된 모든 영역에 대해 CNN을 반복 수행해야 하므로 속도가 매우 느리며, 이러한 단점은 이후 Fast R-CNN에서 개선됩니다.   Fast R-CNNFast R-CNN은 R-CNN의 단점인 느린 속도를 개선한 모델로, Selective Search로 영역을 제안하는 점은 동일하지만, 주.. 2024. 12. 16.
[2024-2] 유경석 - Optimizer의 종류와 특성 https://arxiv.org/pdf/1609.04747https://arxiv.org/pdf/1412.6980https://arxiv.org/pdf/1711.05101 0. Gradient Descent란?Gradient descent는 model parameter $\theta$에 대한 손실함수 $J(\theta)$를 최소화시키기 위해서, 현재 시점에서의 변화량을 나타내는 $\triangledown J(\theta)$의 반대방향을 향해서 parameter를 업데이트하는 과정을 의미한다.쉽게 말해, 손실함수의 그래프가 만들고 있는 Downhill을 따라 내려가며 ($\triangledown J(\theta)$의 반대방향을 따라), Valley($\triangledown J(\theta)$의 최솟값)에.. 2024. 12. 13.
[2024-2] 이재호 CNN의 역사 1 (2012~2015) 이번 포스팅에서는  2012년부터 2015년에 이르기까지 CNN의 다양한 모델들에 대해 알아보겠습니다.  # 목차1. AlexNet (2012)2. RCNN (2013)3. VGGNet (2014)4. ResNet (2015) # AlexNet - ImageNet Classification with Deep Convolutional Neural Networkshttps://papers.nips.cc/paper_files/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html ImageNet Classification with Deep Convolutional Neural NetworksRequests for name changes in the el.. 2024. 12. 8.