본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

전체 글332

[2025-2] 한영웅 - Investigating Data Contamination for Pre-training Language Models (Arxiv 2024) 1. Introduction문제 배경LLM의 뛰어난 성능은 모델 크기와 데이터 규모 덕분이라고 여겨짐GPT-3, PaLM, LLaMA 등 주요 LLM 연구들정말로 크기와 데이터만이 성능의 원인일까?"under-explored" : 충분히 연구되지 않은 중대한 측면데이터 오염(data contamination): 사전 훈련 코퍼스에 평가 데이터가 섞여 들어가는 현상지금까지의 LLM 성능 평가가 근본적으로 신뢰할 수 없을 가능성대부분의 사전 훈련 코퍼스가 비공개기존 접근법의 문제평가 수준 분석 (Evaluation-level Analysis):이미 훈련된 모델에 대해 사후적으로 분석평가 데이터를 깨끗한(clean) 부분과 오염된(contamination) 부분으로 나누어 성능 비교한계: 실제 훈련 과정에서의.. 2025. 8. 23.
[2025-2] 백승우 - Scalable Video-to-Dataset Generation for Cross-Platform Mobile Agents Scalable Video-to-Dataset Generation for Cross-Platform Mobile AgentsRecent advancements in Large Language Models (LLMs) and Vision-Language Models (VLMs) have sparked significant interest in developing GUI visual agents. We introduce MONDAY (Mobile OS Navigation Task Dataset for Agents from YouTube), a large-scale datasetarxiv.org 2025. 8. 20.
[2025-2] 최민서 - 확산 모델의 수학 본 리뷰는 책 "확산 모델의 수학(오카노하라 다이스케)"의 리뷰이며 리뷰의 대부분의 내용은 책의 내용을 바탕으로 제작되었습니다. 보다 자세한 내용에 대해 알고 싶으시면 책을 직접 구입 후 읽어보시길 권장합니다. Chapter 1 생성 모델 에너지 기반 모델과 분배함수 책에서 메인으로 다루는 확산 모델은 생성 모델의 한 종류이다. 생성 모델이란 목표 도메인의 데이터를 생성하는 모델을 말한다. 책의 전반에서 원본 데이터 $\left\{ \mathbf{x}^{(1)}, \dots, \mathbf{x}^{(N)} \right\}$는 $p(\mathbf{x})$라는 미지의 확률분포로부터 서로 독립적으로 추출된 것이라고 하자. 또한 생성 모델은 $q_\theta (\mathbf{x})$라는 확률분포를 가진다. 확.. 2025. 8. 16.
[2025-2] 정유림 - LLM-based agent : DrBioRight 2.0 논문 출처 : Liu, W., Li, J., Tang, Y. et al. DrBioRight 2.0: an LLM-powered bioinformatics chatbot for large-scale cancer functional proteomics analysis. Nat Commun 16, 2256 (2025). https://doi.org/10.1038/s41467-025-57430-4 Agent란?그냥 “사람 대리인”이 아니라, 목표를 스스로 이해하고, 계획을 세우고, 필요한 도구를 사용해 문제를 해결하는 소프트웨어 시스템LLM에서의 agentLLM 단독 → 단순히 질문에 답변하거나 텍스트 생성.LLM agent → LLM이 여러 외부 도구(tool)나 API, 데이터베이스, 실험 장비를 스스.. 2025. 8. 16.