Miscellaneous78 [2025-2] 이루가 - "Why Should I Trust You?": Explaining the Predictions of Any Classifier 논문 링크: https://arxiv.org/abs/1602.04938 "Why Should I Trust You?": Explaining the Predictions of Any ClassifierDespite widespread adoption, machine learning models remain mostly black boxes. Understanding the reasons behind predictions is, however, quite important in assessing trust, which is fundamental if one plans to take action based on a prediction, or when charxiv.org 1. Introduction머신러닝 발.. 2025. 11. 8. [2025-2] 김지원 - Anchors: High-Precision Model-Agnostic Explanations 논문 소개: “LIME의 불안정성을 보완. ‘조건문(anchor)’ 형태로 국소적 설명을 안정적으로 제공하는 논문”, 2018년 AAAI 학회에서 발표됨인용 수: 2025.11.01 기준 3165회논문 링크: https://ojs.aaai.org/index.php/aaai/article/view/11491 Anchors: High-Precision Model-Agnostic Explanations | Proceedings of the AAAI Conference on Artificial Intelligence ojs.aaai.orgAnchors: 닻→ 조건문 기반으로 모델을 안정적으로 설명하기 위해 붙잡아 두는 역할 Abstract저자는 anchors라고 불리는 high-precision rules를 가.. 2025. 11. 2. [2025-2] 이루가 - A review of Q-learning methods for Markov decision processes 논문 링크: https://www.diva-portal.org/smash/record.jsf?pid=diva2%3A1877676&dswid=-1399 0. Abstract연구 목적상태-행동 문제(state-action problem)를 Markov Decision Process(MDP)로 모델링하고, Q-Learning과 Deep Q-Network(DQN)을 적용하여 최적 정책(optimal policy)을 찾는 방법을 탐구한다. 연구 방법Q-Learning과 DQN 알고리즘을 각각 단순한 문제와 복잡한 문제에 적용하여 성능을 비교하고 각 알고리즘의 장점과 한계를 분석한다. 주요 결과Q-Learning은 단순한 문제에서는 최적 정책을 성공적으로 찾았으나, 상태 공간이 사실상 무한한 복잡한 문제에서는 실패.. 2025. 9. 13. [2025-2] 정유림 - Human-level control through deep reinforcement learning 논문 제목 : Human-level Control through Deep Reinforcement Learning (Nature, 2015)저널: Nature발표일: 2015년 2월 25일인용수: 22,000회 인용Human-level control through deep reinforcement learning (Nature, 2015) DQN 배경과거 RL은 표 기반/선형 근사와 수작업 특징에 의존해 작은 상태공간만 다루었고, 픽셀 입력에는 취약했음.신경망+RL은 부트스트래핑/분포 이동으로 학습이 자주 불안정·발산했으며, Atari도 주로 hand-crafted features + linear(SARSA/Q-learning) 조합을 사용함.DQN은 CNN으로 픽셀 표현을 직접 학습하고 Experien.. 2025. 9. 13. 이전 1 2 3 4 ··· 20 다음