본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

전체 글301

[2025-1] 이재호 - Masked Autoencoders Are Scalable Vision Learners https://arxiv.org/abs/2111.06377 - Kaiming He, Xinlei Chen... Masked Autoencoders Are Scalable Vision LearnersThis paper shows that masked autoencoders (MAE) are scalable self-supervised learners for computer vision. Our MAE approach is simple: we mask random patches of the input image and reconstruct the missing pixels. It is based on two core designs. First, wearxiv.org# Abstract이 논문에서는 **Mask.. 2025. 2. 14.
[2025-1] 전연주 - RePaint: Free-Form Image Inpainting with DDPM 논문 링크: 2201.09865저자: Andreas Lugmayr, Martin Danelljan, Andres Romero, Fisher Yu, Radu Timofte, Luc Van Gool소속: Computer Vision Lab, ETH Z¨ urich, Switzerland발행일: 2022 8월 31일1. AbstractFree-form Inpainting은 이미지에서 임의의 마스크 영역을 채우는 작업으로, 기존 방법들은 특정 마스크 분포에서 훈련되어 새로운 마스크에 대한 일반화가 어렵다. 또한, 기존의 픽셀 단위 및 perceptual loss 기반 방법은 의미론적으로 자연스러운 생성을 보장하지 못한다.본 논문에서는 RePaint를 제안한다.Denoising Diffusion Probabili.. 2025. 2. 14.
[2025-1] 황영희 - U-Net: Convolutional Networks for Biomedical Image Segmentation https://arxiv.org/abs/1505.04597 U-Net: Convolutional Networks for Biomedical Image SegmentationThere is large consent that successful training of deep networks requires many thousand annotated training samples. In this paper, we present a network and training strategy that relies on the strong use of data augmentation to use the available annotatedarxiv.org1.  U-Net 이란?이미지 세그멘테이션(Image Segmenta.. 2025. 2. 13.
[2025-1] 임재열 - Hymba: A Hybrid-head Architecture for Small Language Models Hymba는 2024년 NVIDIA에서 제안한 모델입니다. [Hymba]https://arxiv.org/abs/2411.13676 Hymba: A Hybrid-head Architecture for Small Language ModelsWe propose Hymba, a family of small language models featuring a hybrid-head parallel architecture that integrates transformer attention mechanisms with state space models (SSMs) for enhanced efficiency. Attention heads provide high-resolution recall, whilearxiv.org*.. 2025. 2. 12.