본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

CV160

[2025-2] 정재훈 - EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks https://arxiv.org/abs/1905.11946 이 논문에서는 모델의 정확도를 효율적으로 높이기 위하여 깊이, 너비, 해상도를 어떻게 상승시켜야 하는가를 연구합니다. Related Work 이전 연구([1],[2])들에 따르면 ImageNet에서 높은 성능을 내는 모델들 전이학습이나, 객체 탐지에서도 높은 성능을 가집니다.이에 ImageNet 성능은 범용적인 지표로 사용할 수 있습니다.GoogleNet(2014)74.8%6.8M parametersSENet(2017)82.7%145M parametersGPipe84.3%557M parameters 이처럼 정확도가 높은 모델들은 파라미터 수가 증가하는 경향이 있습니다.하지만 하드웨어 메모리는 한계가 있기 때문에 더 높은 정확도를 위해서는 컴퓨팅.. 2026. 1. 10.
[2025-2] 김효민 - ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices 본 글에서는 "모바일 및 임베디드 환경에서 CNN을 얼마나 가볍게 만들 수 있는가?"라는 주제를 중심으로,모바일 환경에서의 활용을 위한 경량화를 목표로 하는 3가지 모델을 다뤄보고자 한다. - SqueezeNet (2016)- MobileNet (2017)- ShuffleNet (2017) 0. 다양한 Convolution 구조들위 모델들의 구조를 살펴보기 전에 다양한 convolution 구조에 대해 공부하면 모델의 구조를 이해하기 쉽다. 다음 링크에서 convolution 구조에 대해 잘 설명하고 있다. 링크의 글 중 특히 아래 적어 놓은 Convolution 구조들을 이해한 다음에 이어서 본 블로그의 글을 읽어보기 바란다.- 1. Convolution- 5. Depthwise Convolution-.. 2026. 1. 3.
[2025-2] 김정운 - CornerNet, CenterNet CornerNet: Detecting Objects as Paired Keypoints : https://arxiv.org/abs/1808.01244 CornerNet: Detecting Objects as Paired KeypointsWe propose CornerNet, a new approach to object detection where we detect an object bounding box as a pair of keypoints, the top-left corner and the bottom-right corner, using a single convolution neural network. By detecting objects as paired keypoints, wearxiv.org .. 2026. 1. 3.
[2025-2] 박제우 - Sharpness-Aware Minimization for Efficiently Improving Generalization https://arxiv.org/abs/2010.01412 Sharpness-Aware Minimization for Efficiently Improving GeneralizationIn today's heavily overparameterized models, the value of the training loss provides few guarantees on model generalization ability. Indeed, optimizing only the training loss value, as is commonly done, can easily lead to suboptimal model quality. Motivatearxiv.org Abstract현대 딥러닝 모델은 대부분 Overpar.. 2025. 12. 20.