본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Miscellaneous87

[2026-1] 이루가 - High-Resolution Image Synthesis with Latent Diffusion Models 논문 링크: https://arxiv.org/abs/2112.10752 High-Resolution Image Synthesis with Latent Diffusion ModelsBy decomposing the image formation process into a sequential application of denoising autoencoders, diffusion models (DMs) achieve state-of-the-art synthesis results on image data and beyond. Additionally, their formulation allows for a guiding mechanism tarxiv.org 확산모델(Diffusion)의 고성능은 유지하면서 계산비용.. 2026. 1. 31.
[2025-2] 강민정 - ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION (ICLR, 2015) - AdamDECOUPLED WEIGHT DECAY REGULARIZATION (ICLR, 2019) - AdamWAn overview of gradient descent optimization algorithms (2017) - Momentum, RMSProp 참고 1️⃣Momentum개념기본적인 SGD(확률적 경사 하강법)가 경사를 따라 조금씩 내려가는 방식이라면, Momentum은 물리학의 관성 개념을 도입한 방식이다. 공이 언덕을 굴러 내려갈 때 중력 가속도를 받아 속도가 점점 빨라지는 것처럼, 현재의 기울기뿐만 아니라 과거의 속도를 반영하여 파라미터를 업데이트한다.해결하고자 한 문제: 진동(Osc.. 2026. 1. 3.
[2025-2] 김지원 - ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION 논문 제목: "ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION"논문 정보: ICLR 2015에서 발표된 논문논문 링크: https://arxiv.org/pdf/1412.69800. 초록저자는 lower-order momentum의 adaptive estimates(적응적 추정치)를 기반으로 하는 확률론적 목표 함수의 1차 gradient 기반 최적화 알고리즘인 ADAM을 소개 다시 말해Adam은 1차 moment인 평균과 2차 moment인 비중심화된 분산(uncentered variance)을 활용하고, 이에 대한 적응적 추정치를 활용하여 stepsize를 파라미터 별로 조정한다 이 방법은 실행하기 편하고 계산적으로 효율적이며, 적은 메모리 양으로 요구하는 동시에 grad.. 2025. 12. 15.
[2025-2] 이루가 - "Why Should I Trust You?": Explaining the Predictions of Any Classifier 논문 링크: https://arxiv.org/abs/1602.04938 "Why Should I Trust You?": Explaining the Predictions of Any ClassifierDespite widespread adoption, machine learning models remain mostly black boxes. Understanding the reasons behind predictions is, however, quite important in assessing trust, which is fundamental if one plans to take action based on a prediction, or when charxiv.org 1. Introduction머신러닝 발.. 2025. 11. 8.