본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Computer Vision73

[2025-1] 전윤경- Multimodal Unsupervised Image-to-Image Translation Introduction비지도 image-to-image translation : 이미지 pairing 없이도 소스 이미지에서 타겟 스타일로 변환MUNIT: 입력 이미지가 있으면 여러 가지 스타일로 변환 가능  가정1. 이미지의 잠재 공간-> 콘텐츠 공간(content space), 스타일 공간(style space) 으로 분해2. 서로 다른 도메인의 이미지들은 공통된 콘텐츠 공간 을 공유하지만, 스타일 공간은 공유하지 않음3. 소스 이미지를 타겟 도메인으로 변환할 때, 콘텐츠 코드를 유지한 채, 타겟 스타일 공간에서 무작위로 샘플링한 스타일 코드와 결합 콘텐츠(content): 이미지의 기본적인 공간적 구조스타일(style): 콘텐츠의 렌더링 방식콘텐츠 코드(content code) : 변환 과정에서 보.. 2025. 2. 21.
[2025-1] 최민서 - Denoising Diffusion Implicit Models [DDIM] https://arxiv.org/abs/2010.02502 Denoising Diffusion Implicit ModelsDenoising diffusion probabilistic models (DDPMs) have achieved high quality image generation without adversarial training, yet they require simulating a Markov chain for many steps to produce a sample. To accelerate sampling, we present denoising diffusionarxiv.org 본 논문은 Denoising Diffusion Probabilistic Models(DDPM)와 깊은 .. 2025. 2. 21.
[25-1] 박지원 - Deep-Emotion: Facial Expression RecognitionUsing Attentional Convolutional Network Original paper ) https://arxiv.org/abs/1902.01019  Deep-Emotion: Facial Expression Recognition Using Attentional Convolutional NetworkFacial expression recognition has been an active research area over the past few decades, and it is still challenging due to the high intra-class variation. Traditional approaches for this problem rely on hand-crafted features such as SIFT, HOG and LBP, foarxiv.or.. 2025. 2. 19.
[2025-1] 주서영 - Adding Conditional Control to Text-to-Image Diffusion Models ControlNetGitHub GitHub - lllyasviel/ControlNet: Let us control diffusion models!Let us control diffusion models! Contribute to lllyasviel/ControlNet development by creating an account on GitHub.github.comICCV 20233626회 인용1. Introduction기존 Text-Image 모델(Stable Diffusion, DALL·E 2, MidJourney, etc.)은 이미지 생성은 뛰어났지만 프롬프트를 수정하며 원하는 결과를 얻기까지 반복 작업이 필요하고 Fine-tuning에서는 데이터셋과 훈련 비용 등에 문제가 있었음ControlNet.. 2025. 2. 15.