전체 글269 [2025-1] 노하림 - Beyond Scalar Reward Model: Learning Generative Judge from Preference Data https://arxiv.org/html/2410.03742v2 Beyond Scalar Reward Model: Learning Generative Judge from Preference DataBeyond Scalar Reward Model: Learning Generative Judge from Preference Data Ziyi Ye1, Xiangsheng Li2, Qiuchi Li3, Qingyao Ai1, Yujia Zhou1, Wei Shen2, Dong Yan2, Yiqun Liu1 1Department of Computer Science and Technology, Tsinghua University 2Baichuan AI arxiv.orgAbstract기존 방식에서는 preferen.. 2025. 3. 10. [2025-1] 박서형 - Gradient Episodic Memory for Continual Learning [1706.08840] Gradient Episodic Memory for Continual Learning Gradient Episodic Memory for Continual LearningOne major obstacle towards AI is the poor ability of models to solve new problems quicker, and without forgetting previously acquired knowledge. To better understand this issue, we study the problem of continual learning, where the model observes, once andarxiv.org 0. Abstract AI는 새로운 과제를.. 2025. 3. 8. [2025-1] 황징아이 - Dynamic Routing Between Capsules NIPS 2017년 논문저자 : Sara Sabour, Nicholas Frosst, Geoffrey E. Hinton논문 : https://arxiv.org/pdf/1710.09829 2017년 Google Brain의 Geoffrey E. Hinton이 발표한 Object Recognition 분야의 새로운 접근방법을 제안한 논문이다. 기존의 Object Recognition모델들은 Convolution Network를 기반으로 설계되어있다. Convolution Network는 feature extracting - max pooling 로 이루어져있다. 여기서 maxpooling의 정보손실 문제를 지적하며 CapsuleNet를 소개했다. 1. 개념이해Invariance vs. Equivarianc.. 2025. 3. 8. [2025-1] 조환희 - Diffusion Models Beat GANs on Image Synthesis arXiv 2021. [Paper] [Github]Prafulla Dhariwal, Alex NicholOpenAI11 May 2021 1. Introduction기존의 diffusion 모델들이 좋은 성능을 보여주고 있지만 여전히 GAN의 성능을 따라잡지 못했다. 저자들은 diffusion과 GAN 사이의 격차가 적어도 두가지 요인에서 비롯된다고 설명한다. GAN은 이미 충분히 많이 탐구되고 개선되었다.GAN은 fidelty와 diversity 사이의 trade-off에서, diversity를 희생해 고품질의 샘플을 생성한다.저자들은 먼저 모델 아키텍처를 개선한 다음 fidelty를 위해 diversity를 절충하는 방법을 고안한다. 이런 개선 사항을 통해 여러가지 metric과 데이터셋에서 GAN을 .. 2025. 3. 8. 이전 1 ··· 6 7 8 9 10 11 12 ··· 68 다음