전체 글163 [2025-1] 김은서 - Playing Atari with Deep Reinforcement Learning (DQN 논문) https://youtu.be/36tvs0H2mww?si=YUfvzTu4OhOxNG_W 논문 링크: dqn.pdfQ-LearningQ-Learning 알고리즘은 DQN(Deep Q Network)의 기반이다.$$ updates; Q(S_{t}, a_{t}) ← Q(S_{t}, a_{t}) + \alpha(R_{t} + \gamma max_{a_{t+1}} Q(S_{t+1}, a_{t+1})-Q(S_{t}, a_{t})) $$위의 식에서현재 상태: $S_{t}$현재 행동: $a_{t}$다음 상태: $S_{t+1}$대상 행동: $a_{t+1}$따라서 Q-Learning에서, 현재의 Q값은 현재 Q값과 다음 State에서 가능한 모든 행동 중 가장 큰 Q 값(Q’)을 이용하여 업데이트된다. Q-Learning.. 2025. 1. 19. [2025-1] 주서영 - Towards Robust Vision Transformer Towards Robust Vision Transformer Towards Robust Vision TransformerRecent advances on Vision Transformer (ViT) and its improved variants have shown that self-attention-based networks surpass traditional Convolutional Neural Networks (CNNs) in most vision tasks. However, existing ViTs focus on the standard accuracy and comarxiv.orgCVPR 20222025.01.18 기준 인용 횟수: 226회Introduction기존의 Vision Transform.. 2025. 1. 18. [2025-1] 정성윤 - Very Deep Convolutional Networks for Large scale image recognition https://troubled-popcorn-a03.notion.site/Very-Deep-Convolutional-Networks-for-Large-scale-image-recognition-17e392d1016e80d09e3ee0b24d624822CNN신경 다발(Connection)을 잘 끊어낸다.위치별 특징을 추출함 : 위치의 정보는 유지한 채로 특정 패턴(특징)을 찾는다.모든 픽셀들의 연결 = Connection 3 X (3 X 100 X 100) ⇒ 총 9만개정해진 Weight Set으로 데이터 값들을 긁어낸다.가까이 있는 값들만 연결 → 위치 정보를 잃지 않음 → 담당 노드라는 “의미”가 생김Kernel(Filter) + bias : 스캔을 통해 필터와 비슷한 특징(패턴)을 찾는다(내적)CNN.. 2025. 1. 18. [2025-1] 임재열 - Swin Transformer Swin Transformer는 2021년 Ze Liu 등이 제안한 모델입니다. [Swin Transformer]https://arxiv.org/abs/2103.14030 Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsThis paper presents a new vision Transformer, called Swin Transformer, that capably serves as a general-purpose backbone for computer vision. Challenges in adapting Transformer from language to vision arise from differences between.. 2025. 1. 18. 이전 1 ··· 3 4 5 6 7 8 9 ··· 41 다음