본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Miscellaneous60

[2025-1] 윤선우 - 밑바닥부터 시작하는 딥러닝 리뷰, (CH 2.1, 2.2) 퍼셉트론과 단순한 논리 회로 밑바닥부터 시작하는 딥러닝딥러닝 분야 부동의 베스트셀러!머리로 이해하고 손으로 익히는 가장 쉬운 딥러닝 입문서  이 책은 딥러닝의 핵심 개념을 ‘밑바닥부터’ 구현해보며 기초를 한 걸음씩 탄탄하게 다질 수 있도www.google.com1. 퍼셉트론이란?1957년 프랑크 로젠블라트가 고안한 알고리즘으로, 아주 오래 됐지만 딥러닝과 신경망의 기원이 됐다. 다수의 신호를 입력값으로 가지며, 이를 통해 하나의 신호를 출력한다. 이때의 신호는 정보의 “흐름”이며, 출력값은 둘 중 하나이다: 신호가 흐른다(=1), 신호가 흐르지 않는다 (=0) 입력값에 가중치를 곱한 후 더한 값이 한계(=임계값, θ)를 넘어서면 1, 넘어서지 못하면 0을 출력한다. 이를 식으로 나타내면 다음과 같다. 이때 가중치는 클수록 그 값이 .. 2025. 3. 4.
[2025-1] 임재열 - Playing Atari with Deep Reinforcement Learning 해당 논문은 2013년에 Google Deepmind에서 발표한 것으로 심층 강화학습의 시작을 알린 논문으로 여겨집니다. [Playing Atari with DRL]https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement LearningWe present the first deep learning model to successfully learn control policies directly from high-dimensional sensory input using reinforcement learning. The model is a convolutional neural network, trained with a variant of Q-.. 2025. 3. 1.
[2025-1] 이재호 - Deep Reinforcement Learning with Double Q-learning https://arxiv.org/abs/1509.06461 Hado van Hasselt, Arthur Guez, David Silver - Google DeepMind Deep Reinforcement Learning with Double Q-learningThe popular Q-learning algorithm is known to overestimate action values under certain conditions. It was not previously known whether, in practice, such overestimations are common, whether they harm performance, and whether they can generally be prevent.. 2025. 2. 28.
[2025-1] 장인영 - 밑바닥부터 시작하는 딥러닝 리뷰, (CH 2.4) 퍼셉트론의 한계 밑바닥부터 시작하는 딥러닝딥러닝 분야 부동의 베스트셀러!머리로 이해하고 손으로 익히는 가장 쉬운 딥러닝 입문서  이 책은 딥러닝의 핵심 개념을 ‘밑바닥부터’ 구현해보며 기초를 한 걸음씩 탄탄하게 다질 수 있도www.google.com 1. XOR 게이트 XOR 게이트배타적 논리합이라는 논리 회로로, 한쪽이 1일 때만 1을 출력한다.  XOR 게이트를 퍼셉트론으로 구현하기 이전 챕터에서 살펴보았던 퍼셉트론으로는 XOR 게이트를 구현할 수 없다. OR 게이트의 동작을 식으로 표현하고, 이를 시각화하면 다음과 같다. 퍼셉트론은 직선으로 나뉜 두 영역을 만들고, 직선으로 나뉜 한쪽 영역은 1을 출력하고 다른 한쪽은 0을 출력한다. OR 게이트를 만들려면 0을 나타내는 원과 1을 나타내는 삼각형을 직선으로 나눠야.. 2025. 2. 26.