전체 글301 [2025-1] 김경훈 - SAM (Segment Anything Model) 원본 논문 링크 : https://arxiv.org/abs/2304.02643 Segment AnythingWe introduce the Segment Anything (SA) project: a new task, model, and dataset for image segmentation. Using our efficient model in a data collection loop, we built the largest segmentation dataset to date (by far), with over 1 billion masks on 11M licensearxiv.org https://github.com/facebookresearch/segment-anything GitHub - facebookr.. 2025. 2. 5. [2025-1] 박지원-SLEAP: A deep learning system for multi-animal pose tracking Paper ) https://www.nature.com/articles/s41592-022-01426-1 SLEAP는 다중 동물의 자세 추적을 위한 기계 학습 시스템으로, 정확성과 속도(800 프레임/초의 처리 속도)를 보인다. 또한 SLEAP는 다양한 동물에 대한 데이터를 효과적으로 처리하며, 사용자 친화적인 인터페이스와 반복 가능한 구성 시스템을 갖췄기에 이를 통해 동물 행동 연구의 효율성과 신뢰성을 크게 향상시킬 수 있다. 특히 실시간으로 동물의 행동을 제어하는 데 유용하다. 주요 기능다중 동물 자세 추적: SLEAP는 다중 동물의 자세 추적을 위한 시스템으로, 상호작용 레이블링, 교육, 추론 및 교정을 포함하는 전체 워크플로우의 필요를 충족높은 정확도: 파리의 경우 90% 데이터에서 빠른 훈.. 2025. 2. 4. [2025-1] 김학선 - Secrets of RLHF in Large Language Models Part I: PPO https://arxiv.org/abs/2307.04964 Secrets of RLHF in Large Language Models Part I: PPOLarge language models (LLMs) have formulated a blueprint for the advancement of artificial general intelligence. Its primary objective is to function as a human-centric (helpful, honest, and harmless) assistant. Alignment with humans assumes paramount signarxiv.orgAbstractLLMs(대규모 언어 모델)의 목표가 인간 중심적인 보조자로 기능하는 것.. 2025. 2. 2. [2025-1] 김은서 - Direct Preference Optimization: Your Language Model is Secretly a Reward Model (2023) Direct Preference Optimization: Your Language Model is Secretly a... Direct Preference Optimization: Your Language Model is Secretly a Reward ModelWhile large-scale unsupervised language models (LMs) learn broad world knowledge and some reasoning skills, achieving precise control of their behavior is difficult due to the completely unsupervised nature of their training. Existing methods for gain.. 2025. 2. 2. 이전 1 ··· 28 29 30 31 32 33 34 ··· 76 다음