분류 전체보기271 [2025-1] 정지우 - Optimal policy 쉬운 설명 (혁펜하임 강화학습 3-1강 정리) https://youtu.be/cn7IAfgPasE?si=DA7LiUsUHAFvcvCj Recap. optimal policy란?state value function을 maximize하는 policyexpected return을 최대화(과거의 action과 무관하게 앞으로 기대되는 reward를 maximize) Recap. Bellman Equation에서 state value function을 action value function으로 나타내면 optimal policy를 구하기 위해 $V(S_t)$를 maximize할 것.$V(S_t)$를 maximize하는 policy $p(a_t|S_t)$를 찾으면 됨.$p(a_t|S_t)$는 probability distribution 그런데 $V(S_t)$를.. 2025. 1. 4. [2025-1] 이재호 - Attention is all you need https://arxiv.org/abs/1706.03762 Attention Is All You NeedThe dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a newarxiv.org구글에서 2017년에 발표한 Attention is all you need는 현재 자연어나 비전 등 다양한 방면에서 활용되는 Transf.. 2025. 1. 4. [2025-1] 황영희 - Deep Residual Learning for Image Recognition https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image RecognitionDeeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions witharxiv.orghttps://arxiv.org/abs/1603.05027 Identity Mappings in De.. 2025. 1. 4. [2024-2] 문지영 - deeplearning: Deep Feedforward Networks (1) https://www.deeplearningbook.org/contents/mlp.html https://www.deeplearningbook.org/contents/mlp.html www.deeplearningbook.org I. Deep Feedforward Networks0. 심층신경망이란?deep feedforward networks는 deeplearning의 핵심으로, 목표는 어떤 함수 $f^*$를 근사approximate하는 것이다. 이 순방향 신경망은 하나의 사상map $y= f(x;\theta)$를 정의하고, 함수를 가장 잘 근사하는 파라미터 $\theta$의 값들을 학습한다. (1) feedforward정보가 앞쪽으로만 흘러감: $x$를 입력으로 하여 평가되는 함수를 통과한 후 출력 $.. 2025. 1. 4. 이전 1 ··· 37 38 39 40 41 42 43 ··· 68 다음