전체 글265 [2025-1] 김유현 - Unsupervised Representation Learning With Deep Convolutional Generative Adversarial Networks https://arxiv.org/abs/1511.06434 Unsupervised Representation Learning with Deep Convolutional Generative Adversarial NetworksIn recent years, supervised learning with convolutional networks (CNNs) has seen huge adoption in computer vision applications. Comparatively, unsupervised learning with CNNs has received less attention. In this work we hope to help bridge the gap betweenarxiv.org 0. Abstr.. 2025. 1. 18. [2025-1] 조환희 - WideResNet(WRN) WRN(WideResNet)은 residual netowrk의 넓이를 증가시키고 깊이를 감소시킨 모델이다. 신경망의 넓이를 증가한다는 의미는 filter수를 증가시킨다는 것을 의미한다. 즉, WRN은 residual block을 구성하는 convolution layer의 filter 수를 증가시켜서 신경망의 넓이를 증가시켰다. 16 layer로 이루어진 WRN은 1000-layer ResNet 같은 깊은 신경망을 제치고 SOTA를 달성했다. 등장 배경 지금까지 CNN은 깊이를 증가시키는 방향으로 발전해왔다. (ex. AlexNet, VGG, Inception, ResNet) 하지만 모델의 깊이가 깊어지는 만큼 기울기 소실(gradient descent), 기울기 폭발(gradien explosion.. 2025. 1. 18. [2025-1] 전연주 - LDM: High-Resolution Image Synthesis with Latent Diffusion Models 논문 링크: 2112.107521. AbstractDiffusion Model (DM)은 고품질 이미지 생성에 탁월하지만, pixel space에서 직접 학습할 때 막대한 계산량과 시간이 소요됨본 논문에서는 먼저 강력한 Autoencoder를 사용해 이미지를 latent space로 압축한 뒤, 해당 공간에서 Diffusion Model을 학습하는 방안(Latent Diffusion Model, LDM)을 제안이 방식은 기존 pixel space 기반 Diffusion 대비 학습 비용과 추론(샘플 생성) 비용을 크게 절감함과 동시에, 다양한 조건(예: 텍스트, 세그멘테이션 맵 등)을 유연하게 적용할 수 있음Inpainting, Super-Resolution, Text-to-Image Synthesis 등.. 2025. 1. 17. [2025-1] 차승우-GloVe: Global Vectors for Word Representation https://aclanthology.org/D14-1162.pdf0. Abstract최근 단어의 벡터 공간 표현을 학습하는 방법은 CBOW, skip - gram 등의 방식을 통한 벡터 연사을 통해 의미적, 문법적 규칙성을 포착하는데 성공했지만, 이런한 규칙성이 발생하는 근원은 명확하지 않다. 본 논문에서는 이러한 규칙성이 나타나기 위해 필요한 모델 특성을 분석하고 명확히 한다. 그 결과로써 기존 문헌의 두 주요 모델 계열(전역 행렬 분해(LSA) 및 지역 문맥 창(Bag-of-words, skip-gram))의 장점을 결합한 새로운 전역 로그-선형 회귀 모델을 제안한다. 단어 유추(word analogy) 과제에서 75%의 성과를 보였으며, 유사성 비교 및 개체명 인식에서 기존 모델 대비 우수한 성.. 2025. 1. 17. 이전 1 ··· 29 30 31 32 33 34 35 ··· 67 다음