Computer Vision127 [2025-1] 임수연 - EfficientDet: Scalable and Efficient Object Detection https://arxiv.org/pdf/1911.09070 1. Introduction연구 배경최신 객체 탐지 모델들은 정확도가 향상되었지만 모델 크기와 연산량도 크게 증가함AmoebaNet 기반 NAS-FPN과 같은 최신 탐지기는 167M 파라미터와 3045B FLOPs(RetinaNet의 30배)가 필요이러한 큰 모델은 리소스 제약이 있는 실제 환경에 적용하기 어려움주요 도전과제도전 1: 효율적인 다중 스케일 특징 융합 방법 개발도전 2: 여러 리소스 제약 조건에서도 효율적으로 동작하는 확장 가능한 아키텍처 설계주요 contribution가중치 양방향 특징 피라미드 네트워크(Weighted BiFPN) 제안객체 탐지를 위한 컴파운드 스케일링 방법 개발EfficientNet 백본과 BiFPN을 결합한 .. 2025. 5. 16. [2025-1] 전연주 - Patches Are All You Need? 논문 링크: 2201.09792 Overview:Transformer 기반 Vision 모델의 성능이 patch 기반 입력 표현 때문인지, self-attention 구조 때문인지 탐구하고, 단순한 convolution 기반 모델 ConvMixer를 제안함.1. Introduction기존 Vision 분야에서 CNN이 오랫동안 표준 모델이었음.하지만 Transformer 기반 모델(특히 ViT)이 등장하며, 대규모 데이터셋에서 CNN보다 우수한 성능을 보이기 시작함.Transformer는 원래 NLP에 특화되었고, self-attention의 계산 복잡도는 입력의 길이에 대해 제곱 (O(N²))이기 때문에, 이미지의 각 픽셀에 직접 적용하기에는 매우 비효율적임.→ 이를 해결하기 위해 등장한 아이디어가 바.. 2025. 5. 15. [2025-1] 주서영 - Expert-level detection of pathologies from unannotated chest X-ray images via self-supervised learning Expert-level detection of pathologies from unannotated chest X-ray images via self-supervised learningGitHub GitHub - rajpurkarlab/CheXzero: This repository contains code to train a self-supervised learning model on chest X-ray images thThis repository contains code to train a self-supervised learning model on chest X-ray images that lack explicit annotations and evaluate this model's performanc.. 2025. 5. 15. [2025-1] 전윤경-A FOUNDATION MODEL FOR GENERALIZABLE DISEASEDIAGNOSIS IN CHEST X-RAY IMAGES CXRBase: 흉부 X선 이미지(CXR)에 대한 질병 진단의 일반화된 해결책을 제공이미지 기반 자기 지도 학습(SSL) 방법: 데이터를 masking하여 그 마스킹된 부분을 재구성하는 방식으로 학습하는 모델Masked Autoencoders (MAE): ViT와 결합 모델 아키텍처데이터 처리배경을 제외한 이미지의 흉부영역만 유지512*512 해상도( 큐빅 보간법)데이터 증강 기법: random cropping, random horizontal flipping 적용stage 1 (자가 지도 학습(SSL))인코더: ViT-large(24개 트랜스포머 블록)마스크 비율: 0.75멀티헤드 자기 주의(Multihead Self-Attention)와 Multi-layer Perceptron 계층을 포함하여 특성 .. 2025. 5. 9. 이전 1 2 3 4 5 6 ··· 32 다음