분류 전체보기271 [2024-2] 조환희 - DCGAN, Cycle GAN, LSGAN 1. DCGANGAN 시리즈의 2번째 논문, DCGAN다. 기존의 GAN은 학습이 불안정하다는 문제가 있었다. 터무니 없는 데이터를 생성하기도 하고, Mode collapse 문제가 발생하기도 했다. DCGAN은 이러한 문제를 해결하기 위해 CNN을 GAN에 적용시킨 모델이다. Model ArchitectureCNN 아키텍처를 GAN에 도입하려고 한 시도는 이 논문이 처음이 아니지만, 성공적이지 못했다. 그리고 DCGAN 연구진분들 역시 주로 Supervised Task에 사용되는 CNN을 사용하여 GAN을 조정하는 것에서 어려움을 겪었다고 밝히고 있다. 하지만 DCGAN이 발표된 2016년 당시 최신의 CNN 학습 테크닉을 도입함으로써 이를 극복할 수 있었다고 한다. 이 테크닉 다음과 같다. 1. R.. 2025. 1. 4. [2024-2] 차승우 - Word2Vec : Efficient Estimation of Word Representations in Vector Space (2013) https://arxiv.org/pdf/1301.3781 0. Abstract- 우리는 매우 큰 데이터 세트로부터 단어의 연속 벡터 표현을 계산하기 위한 두 가지 새로운 모델 아키텍처를 제안합니다. 1. Skip - Gram 2. Bag-of-words - 이러한 표현의 품질은 단어 유사성 작업에서 측정되며, 다양한 유형의 신경망에 기반한 기존 최고의 성능 기법과 비교됩니다. 우리는 계산 비용이 훨씬 낮으면서도 정확도에서 큰 개선을 관찰했습니다. 1. Introduction1.0. 기존 기술 방식(N-gram) 1.1. N-gram 정의 - 어느 문장 이후에 나올 단어를 예측하고 싶을 때, 전체의 문장이 아닌 이전의 n-1개의 단어에 의존하여 코퍼스 내부에 등장 확률을 통해 다음 단어를 예측하는.. 2025. 1. 3. [2024-2] 박경태 - deeplearning: Probability and Information Theory https://www.deeplearningbook.org/contents/prob.html https://www.deeplearningbook.org/contents/prob.html www.deeplearningbook.org I. 확률 이론의 기초1. 확률과 불확실성확률 이론은 불확실성을 다루는 수학적 도구다. 많은 자연 현상과 시스템은 본질적으로 불확실성을 포함하고 있으며, 이를 정량적으로 표현하는 데 확률 개념이 활용된다.불확실성은 다음과 같은 세 가지 주요 원천에서 발생한다:내재적 확률성시스템 자체가 본질적으로 확률적으로 작동하는 경우.예: 양자역학에서의 입자의 움직임, 무작위로 섞인 카드의 순서.불완전한 관측모든 변수를 관측하지 못해 발생하는 불확실성.예: 몬티홀 문제에서 문 뒤의 자동차 위.. 2025. 1. 3. [2024-2] 최민서 - Deep Unsupervised Learning using Nonequilibrium Thermodynamics https://arxiv.org/abs/1503.03585 Deep Unsupervised Learning using Nonequilibrium ThermodynamicsA central problem in machine learning involves modeling complex data-sets using highly flexible families of probability distributions in which learning, sampling, inference, and evaluation are still analytically or computationally tractable. Here, we develarxiv.org 생성형 모델이 이미지를 생성하는 방식은 다양하고 그 중 하나가 di.. 2025. 1. 3. 이전 1 ··· 39 40 41 42 43 44 45 ··· 68 다음