본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Computer Vision4

[2025-1] 이재호 - NERF: Representing Scenes as Neural Radiance Fields or View Synthesis https://arxiv.org/pdf/2003.08934  Ben Mildenhall et al, UC Berkeley, Google Research, UC San Diegohttps://www.matthewtancik.com/nerf - 홈페이지  Abstract 연구 개요소개: 복잡한 장면의 새로운 시점을 합성하기 위해 연속적인 볼륨 장면 함수를 최적화하는 방법 제시목적: 희소한 입력 뷰를 사용하여 복잡한 장면의 신규 뷰를 합성알고리즘 설명입력: 5D 좌표(공간 위치 $ x,y,z $ 및  viewing direction $ \theta, \phi $)출력: 해당 공간 위치에서의 부피 밀도와 시청 방향에 따른 방사선합성 방법: 카메라 광선을 따라 5D 좌표를 쿼리하고 클래식 볼륨 렌더링 기술을 이용.. 2025. 3. 15.
[2025-1] 주서영 - Flow matching for generative modeling Flow MatchingICLR 2023850회 인용1. Introduction본 논문은 Continuous Normalizaing Flows(CNF)를 시뮬레이션 없이(simulation-free) 효율적으로 훈련할 수 있는 학습 방법인 Flow Matching (FM)을 제시한다.2. Preliminaries : Continuous Normalizing FlowsNormalizaing Flow : 데이터 분포인 $x$에서 $z$로의 역변환이 가능한 Flow를 학습하는 모델Continuous Normalizing Flows(CNF) : 시간에 따른 vector filed를 학습하여 ODE를 통해 확률 분포를 변환하는 생성 모델$\mathbb{R}^d$데이터 포인트 $x=(x^1,\cdots,x^d)\i.. 2025. 2. 20.
[2025-1] 주서영 - Adding Conditional Control to Text-to-Image Diffusion Models ControlNetGitHub GitHub - lllyasviel/ControlNet: Let us control diffusion models!Let us control diffusion models! Contribute to lllyasviel/ControlNet development by creating an account on GitHub.github.comICCV 20233626회 인용1. Introduction기존 Text-Image 모델(Stable Diffusion, DALL·E 2, MidJourney, etc.)은 이미지 생성은 뛰어났지만 프롬프트를 수정하며 원하는 결과를 얻기까지 반복 작업이 필요하고 Fine-tuning에서는 데이터셋과 훈련 비용 등에 문제가 있었음ControlNet.. 2025. 2. 15.
[2024-1] 한영웅 - DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation, CVPR 2023, Google Research, Boston University Abstract대규모 텍스트-이미지 모델은 주어진 참조 세트(reference set)에서 객체의 모양을 모방하고 다양한 맥락에서 새로운 표현을 합성하는 능력이 부족. 이에 저자들은 텍스트-이미지의 "개인화"(“personalization”)를 위한 새로운 접근 방식을 제시. 객체에 대한 몇 개의 이미지만 입력으로 주어지면 사전 훈련된 텍스트-이미지 디퓨젼 모델(DM)을 파인튜닝하여 해당 특정 객체와 고유 식별자를 바인딩하는 방법을 학습. 고유 식별자를 사용하여 다양한 장면에서 그 객체의 새로운 실제 같은 이미지를 합성할 수 있음. 새로운 자동 클래스별 사전 보존 손실 (autogenous class-specific prior preservation loss)과 새로운 데이터 세트 및 평가 프로토콜 (e.. 2024. 5. 29.