본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Miscellaneous73

[2025-1] 윤선우 - 밑바닥부터 시작하는 딥러닝 리뷰, (CH 3.5) 출력층 설계하기 신경망은 회귀와 분류에 사용된다. 이때 회귀(regression)란 입력 데이터에서 (연속적인) 수치를 예측하는 문제, 분류(classification)란 데이터가 어느 클래스에 속하느냐를 구별하는 문제를 일컫는다. 회귀에는 항등 함수를, 분류에는 소프트맥스 함수를 사용한다. 1. 항등 함수와 소프트맥스 함수 구현하기회귀에서 사용하는 항등함수는 입력을 그대로 출력한다. 그래서 출력층에 항등함수를 사용하면 입력 신호가 그대로 출력된다. 신경망 그림은 다음과 같이 표현된다:분류에서 사용하는 소프트맥스 함수의 식은 다음과 같이 표현된다:(이때 exp(x)는 e^x를, n은 출력층의 뉴런 수를, yk는 그중 k번째 출력임을 뜻한다.)소프트맥스의 출력은 모든 입력 신호로부터 화살표를 받는데, 이는 식의 분모에서도.. 2025. 3. 5.
[2025-1] 윤선우 - 밑바닥부터 시작하는 딥러닝 리뷰, (CH 2.1, 2.2) 퍼셉트론과 단순한 논리 회로 밑바닥부터 시작하는 딥러닝딥러닝 분야 부동의 베스트셀러!머리로 이해하고 손으로 익히는 가장 쉬운 딥러닝 입문서  이 책은 딥러닝의 핵심 개념을 ‘밑바닥부터’ 구현해보며 기초를 한 걸음씩 탄탄하게 다질 수 있도www.google.com1. 퍼셉트론이란?1957년 프랑크 로젠블라트가 고안한 알고리즘으로, 아주 오래 됐지만 딥러닝과 신경망의 기원이 됐다. 다수의 신호를 입력값으로 가지며, 이를 통해 하나의 신호를 출력한다. 이때의 신호는 정보의 “흐름”이며, 출력값은 둘 중 하나이다: 신호가 흐른다(=1), 신호가 흐르지 않는다 (=0) 입력값에 가중치를 곱한 후 더한 값이 한계(=임계값, θ)를 넘어서면 1, 넘어서지 못하면 0을 출력한다. 이를 식으로 나타내면 다음과 같다. 이때 가중치는 클수록 그 값이 .. 2025. 3. 4.
[2025-1] 임재열 - Playing Atari with Deep Reinforcement Learning 해당 논문은 2013년에 Google Deepmind에서 발표한 것으로 심층 강화학습의 시작을 알린 논문으로 여겨집니다. [Playing Atari with DRL]https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement LearningWe present the first deep learning model to successfully learn control policies directly from high-dimensional sensory input using reinforcement learning. The model is a convolutional neural network, trained with a variant of Q-.. 2025. 3. 1.
[2025-1] 이재호 - Deep Reinforcement Learning with Double Q-learning https://arxiv.org/abs/1509.06461 Hado van Hasselt, Arthur Guez, David Silver - Google DeepMind Deep Reinforcement Learning with Double Q-learningThe popular Q-learning algorithm is known to overestimate action values under certain conditions. It was not previously known whether, in practice, such overestimations are common, whether they harm performance, and whether they can generally be prevent.. 2025. 2. 28.