본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

분류 전체보기266

[2025-1] 임재열 - Playing Atari with Deep Reinforcement Learning 해당 논문은 2013년에 Google Deepmind에서 발표한 것으로 심층 강화학습의 시작을 알린 논문으로 여겨집니다. [Playing Atari with DRL]https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement LearningWe present the first deep learning model to successfully learn control policies directly from high-dimensional sensory input using reinforcement learning. The model is a convolutional neural network, trained with a variant of Q-.. 2025. 3. 1.
[2025-1] 이재호 - Deep Reinforcement Learning with Double Q-learning https://arxiv.org/abs/1509.06461 Hado van Hasselt, Arthur Guez, David Silver - Google DeepMind Deep Reinforcement Learning with Double Q-learningThe popular Q-learning algorithm is known to overestimate action values under certain conditions. It was not previously known whether, in practice, such overestimations are common, whether they harm performance, and whether they can generally be prevent.. 2025. 2. 28.
[2025-1] 김유현 - Wasserstein GAN https://arxiv.org/abs/1701.07875 Wasserstein GANWe introduce a new algorithm named WGAN, an alternative to traditional GAN training. In this new model, we show that we can improve the stability of learning, get rid of problems like mode collapse, and provide meaningful learning curves useful for debuggiarxiv.org   1. IntroductionGAN의 목적은 데이터 $x$의 분포 $P(x)$를 직접 학습하는 것이 목적이다. $P(x)$를 매개변수 θ를 사용하여 .. 2025. 2. 28.
[2025-1] 장인영 - 밑바닥부터 시작하는 딥러닝 리뷰, (CH 2.4) 퍼셉트론의 한계 밑바닥부터 시작하는 딥러닝딥러닝 분야 부동의 베스트셀러!머리로 이해하고 손으로 익히는 가장 쉬운 딥러닝 입문서  이 책은 딥러닝의 핵심 개념을 ‘밑바닥부터’ 구현해보며 기초를 한 걸음씩 탄탄하게 다질 수 있도www.google.com 1. XOR 게이트 XOR 게이트배타적 논리합이라는 논리 회로로, 한쪽이 1일 때만 1을 출력한다.  XOR 게이트를 퍼셉트론으로 구현하기 이전 챕터에서 살펴보았던 퍼셉트론으로는 XOR 게이트를 구현할 수 없다. OR 게이트의 동작을 식으로 표현하고, 이를 시각화하면 다음과 같다. 퍼셉트론은 직선으로 나뉜 두 영역을 만들고, 직선으로 나뉜 한쪽 영역은 1을 출력하고 다른 한쪽은 0을 출력한다. OR 게이트를 만들려면 0을 나타내는 원과 1을 나타내는 삼각형을 직선으로 나눠야.. 2025. 2. 26.