전체 글296 [2025-1] 김유현 - Progressive Growing of GAN https://arxiv.org/abs/1710.10196 Progressive Growing of GANs for Improved Quality, Stability, and VariationWe describe a new training methodology for generative adversarial networks. The key idea is to grow both the generator and discriminator progressively: starting from a low resolution, we add new layers that model increasingly fine details as training prograrxiv.org 0. Abstract논문에서는 Prgressi.. 2025. 5. 17. [2025-1] 임수연 - EfficientDet: Scalable and Efficient Object Detection https://arxiv.org/pdf/1911.09070 1. Introduction연구 배경최신 객체 탐지 모델들은 정확도가 향상되었지만 모델 크기와 연산량도 크게 증가함AmoebaNet 기반 NAS-FPN과 같은 최신 탐지기는 167M 파라미터와 3045B FLOPs(RetinaNet의 30배)가 필요이러한 큰 모델은 리소스 제약이 있는 실제 환경에 적용하기 어려움주요 도전과제도전 1: 효율적인 다중 스케일 특징 융합 방법 개발도전 2: 여러 리소스 제약 조건에서도 효율적으로 동작하는 확장 가능한 아키텍처 설계주요 contribution가중치 양방향 특징 피라미드 네트워크(Weighted BiFPN) 제안객체 탐지를 위한 컴파운드 스케일링 방법 개발EfficientNet 백본과 BiFPN을 결합한 .. 2025. 5. 16. [2025-1] 전연주 - Patches Are All You Need? 논문 링크: 2201.09792 Overview:Transformer 기반 Vision 모델의 성능이 patch 기반 입력 표현 때문인지, self-attention 구조 때문인지 탐구하고, 단순한 convolution 기반 모델 ConvMixer를 제안함.1. Introduction기존 Vision 분야에서 CNN이 오랫동안 표준 모델이었음.하지만 Transformer 기반 모델(특히 ViT)이 등장하며, 대규모 데이터셋에서 CNN보다 우수한 성능을 보이기 시작함.Transformer는 원래 NLP에 특화되었고, self-attention의 계산 복잡도는 입력의 길이에 대해 제곱 (O(N²))이기 때문에, 이미지의 각 픽셀에 직접 적용하기에는 매우 비효율적임.→ 이를 해결하기 위해 등장한 아이디어가 바.. 2025. 5. 15. [2025-1] 주서영 - Expert-level detection of pathologies from unannotated chest X-ray images via self-supervised learning Expert-level detection of pathologies from unannotated chest X-ray images via self-supervised learningGitHub GitHub - rajpurkarlab/CheXzero: This repository contains code to train a self-supervised learning model on chest X-ray images thThis repository contains code to train a self-supervised learning model on chest X-ray images that lack explicit annotations and evaluate this model's performanc.. 2025. 5. 15. 이전 1 2 3 4 5 6 ··· 74 다음