전체 글406 [2026-1] 강민정, 황징아이 - Let’s Verify Step by Step 1. 데이터셋의 구성 의의배경최근 대규모 언어 모델은 복잡한 다단계 추론(Multi-step reasoning)을 수행하는 능력이 크게 향상되었다. 그러나 최신 모델에서도 논리적 오류나 불확실한 상황에서 사실을 조작하는 환각(Hallucination) 문제가 빈번하게 발생한다. 특히 기존 연구에서 다룬 쉬운 문제(GSM8K)와 달리 복잡한 문제일수록 이러한 오류를 잡아내는 것이 중요해진다. 기존의 한계결과 감독(Outcome Supervision, ORM) 방식은 최종 결과만 보고 피드백을 제공한다. 이는 모델이 잘못된 추론 과정을 거쳤음에도 우연히 정답을 맞힌 경우(False Positive)를 판별하기 어렵고, 오답인 경우에도 정확히 어느 단계에서 틀렸는지 알려주지 못하는 신용 할당(Credit As.. 2026. 2. 18. [2026-1] 염제원, 김학선 - AA-Omniscience: Evaluating Cross-Domain KnowledgeReliability in Large Language Models AA-Omniscience: Evaluating Cross-Domain Knowledge Reliability in Large Language ModelsExisting language model evaluations primarily measure general capabilities, yet reliable use of these models across a range of domains demands factual accuracy and recognition of knowledge gaps. We introduce AA-Omniscience, a benchmark designed to measurearxiv.org ArtificialAnalysis/AA-Omniscience-Public · Data.. 2026. 2. 16. [2026-1] 정재훈 - AnEmpirical Evaluation of Geeric Convolutional and Recurrent Networksfor Sequence Modeling 더보기https://arxiv.org/abs/1803.01271 An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence ModelingFor most deep learning practitioners, sequence modeling is synonymous with recurrent networks. Yet recent results indicate that convolutional architectures can outperform recurrent networks on tasks such as audio synthesis and machine translation. Given aarxiv.org 0.BE.. 2026. 2. 7. [2026-1] 김지은 - Denoising Diffusion Implicit Models 본 글에서는 DDPM(NeurIPS 2020)의 Markovian diffusion 구조로 인해 reverse sampling이 순차적 과정을 요구하는 한계를 살펴보고, 이를 non-Markovian inference 구조로 일반화하여 빠른 deterministic sampling을 가능하게 한 DDIM(ICLR 2021)을 살펴본다. 1. IntroductionDDPM의 generative process는 forward diffusion을 거꾸로 따라가는 구조다. 따라서 1) sampling에 수천 번의 sequential iteration 필요하고 2) 병렬화가 어렵다. DDIM은 “Diffusion 모델의 샘플링을 더 빠르게 만들 수는 없을까?”의 문제 의식에서 출발한 논문이다. 이 논문은 DDPM.. 2026. 2. 7. 이전 1 ··· 4 5 6 7 8 9 10 ··· 102 다음