본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Miscellaneous85

[2025-2] 김지원 - ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION 논문 제목: "ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION"논문 정보: ICLR 2015에서 발표된 논문논문 링크: https://arxiv.org/pdf/1412.69800. 초록저자는 lower-order momentum의 adaptive estimates(적응적 추정치)를 기반으로 하는 확률론적 목표 함수의 1차 gradient 기반 최적화 알고리즘인 ADAM을 소개 다시 말해Adam은 1차 moment인 평균과 2차 moment인 비중심화된 분산(uncentered variance)을 활용하고, 이에 대한 적응적 추정치를 활용하여 stepsize를 파라미터 별로 조정한다 이 방법은 실행하기 편하고 계산적으로 효율적이며, 적은 메모리 양으로 요구하는 동시에 grad.. 2025. 12. 15.
[2025-2] 이루가 - "Why Should I Trust You?": Explaining the Predictions of Any Classifier 논문 링크: https://arxiv.org/abs/1602.04938 "Why Should I Trust You?": Explaining the Predictions of Any ClassifierDespite widespread adoption, machine learning models remain mostly black boxes. Understanding the reasons behind predictions is, however, quite important in assessing trust, which is fundamental if one plans to take action based on a prediction, or when charxiv.org 1. Introduction머신러닝 발.. 2025. 11. 8.
[2025-2] 김지원 - Anchors: High-Precision Model-Agnostic Explanations 논문 소개: “LIME의 불안정성을 보완. ‘조건문(anchor)’ 형태로 국소적 설명을 안정적으로 제공하는 논문”, 2018년 AAAI 학회에서 발표됨인용 수: 2025.11.01 기준 3165회논문 링크: https://ojs.aaai.org/index.php/aaai/article/view/11491 Anchors: High-Precision Model-Agnostic Explanations | Proceedings of the AAAI Conference on Artificial Intelligence ojs.aaai.orgAnchors: 닻→ 조건문 기반으로 모델을 안정적으로 설명하기 위해 붙잡아 두는 역할 Abstract저자는 anchors라고 불리는 high-precision rules를 가.. 2025. 11. 2.
[2025-2] 이루가 - A review of Q-learning methods for Markov decision processes 논문 링크: https://www.diva-portal.org/smash/record.jsf?pid=diva2%3A1877676&dswid=-1399 0. Abstract연구 목적상태-행동 문제(state-action problem)를 Markov Decision Process(MDP)로 모델링하고, Q-Learning과 Deep Q-Network(DQN)을 적용하여 최적 정책(optimal policy)을 찾는 방법을 탐구한다. 연구 방법Q-Learning과 DQN 알고리즘을 각각 단순한 문제와 복잡한 문제에 적용하여 성능을 비교하고 각 알고리즘의 장점과 한계를 분석한다. 주요 결과Q-Learning은 단순한 문제에서는 최적 정책을 성공적으로 찾았으나, 상태 공간이 사실상 무한한 복잡한 문제에서는 실패.. 2025. 9. 13.