Miscellaneous88 [2026-1] 이루가 - High-Resolution Image Synthesis with Latent Diffusion Models 논문 링크: https://arxiv.org/abs/2112.10752 High-Resolution Image Synthesis with Latent Diffusion ModelsBy decomposing the image formation process into a sequential application of denoising autoencoders, diffusion models (DMs) achieve state-of-the-art synthesis results on image data and beyond. Additionally, their formulation allows for a guiding mechanism tarxiv.org 확산모델(Diffusion)의 고성능은 유지하면서 계산비용.. 2026. 1. 31. [2026-1] 박승원 - SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS Paper Information- 논문링크: https://arxiv.org/pdf/1609.02907- 게재 컨퍼런스 : International Conference on Learning Representations(ICLR) 2017- 저자: *Thomas N. Kipf, Max Welling from University of Amsterdam그래프들어가기에 앞서 그래프가 생소한 분들을 위해 개념을 소개합니다.그래프란? 객체들의 집합이며, 객체의 일부는 서로 관련이 있음. 그래프는 정점(Vertices, Nodes)와 그 정점들을 잇는 간선(Edges)으로 구성됨. 객체 간 관계를 모델링할 때 그래프를 사용함."A graph is a structure consisting of a set of obje.. 2026. 1. 30. [2025-2] 강민정 - ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION (ICLR, 2015) - AdamDECOUPLED WEIGHT DECAY REGULARIZATION (ICLR, 2019) - AdamWAn overview of gradient descent optimization algorithms (2017) - Momentum, RMSProp 참고 1️⃣Momentum개념기본적인 SGD(확률적 경사 하강법)가 경사를 따라 조금씩 내려가는 방식이라면, Momentum은 물리학의 관성 개념을 도입한 방식이다. 공이 언덕을 굴러 내려갈 때 중력 가속도를 받아 속도가 점점 빨라지는 것처럼, 현재의 기울기뿐만 아니라 과거의 속도를 반영하여 파라미터를 업데이트한다.해결하고자 한 문제: 진동(Osc.. 2026. 1. 3. [2025-2] 김지원 - ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION 논문 제목: "ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION"논문 정보: ICLR 2015에서 발표된 논문논문 링크: https://arxiv.org/pdf/1412.69800. 초록저자는 lower-order momentum의 adaptive estimates(적응적 추정치)를 기반으로 하는 확률론적 목표 함수의 1차 gradient 기반 최적화 알고리즘인 ADAM을 소개 다시 말해Adam은 1차 moment인 평균과 2차 moment인 비중심화된 분산(uncentered variance)을 활용하고, 이에 대한 적응적 추정치를 활용하여 stepsize를 파라미터 별로 조정한다 이 방법은 실행하기 편하고 계산적으로 효율적이며, 적은 메모리 양으로 요구하는 동시에 grad.. 2025. 12. 15. 이전 1 2 3 4 ··· 22 다음