전체 글301 [2024-2] 정인아 - Learning Transferable Architectures for Scalable Image Recognition, MnasNet: Platform-Aware Neural Architecture Search for Mobile NasNet Learning Transferable Architectures for Scalable Image RecognitionDeveloping neural network image classification models often requires significant architecture engineering. In this paper, we study a method to learn the model architectures directly on the dataset of interest. As this approach is expensive when the datasetarxiv.orgMnasNet MnasNet: Platform-Aware Neural Architecture Search f.. 2024. 12. 28. [2024-2] 이승섭 - GCN (Graph Convolutional Networks) https://arxiv.org/abs/1609.02907GCN (Graph Convolutional Networks)는 그래프의 형태로 저장된 데이터의 node와 node 사이를 잇는 edge를 분석하는 GNN (Graph Neural Network)의 간단한 일종이다.CNN이 convolutional filter의 global weight parameter를 이용해 연산비용을 줄인 것처럼, GCN도 global parameter이 적은 graph convolution을 각 node와 k-단계로 인접한 node들에 적용해 aggregation을 수행한다고 이해할 수 있다.해당 논문은 Thomas N. Kipf이 암스테르담 대학교의 Max Welling 교수 (VAE의 개발자) 밑에서 박사과정 도중 작성.. 2024. 12. 28. [2024-2] 김유현 - Generative Adversarial Nets Generative Adversarial NetworksWe propose a new framework for estimating generative models via an adversarial process, in which we simultaneously train two models: a generative model G that captures the data distribution, and a discriminative model D that estimates the probability thatarxiv.org0. Abstract기본적으로 generative model의 성능을 높이기 위해 고안된 architecture이다. 실제와 유사한 이미지를 생성해 주는 generative model을.. 2024. 12. 27. [2024-2] 차승우 - Seq2Seq(Sequence to Sequence Learning with Neural Networks) https://arxiv.org/abs/1409.3215 0. Abstact 0.1. Seq2Seq 발생 배경 - DNNs(Deep Nerual Networks)는 시퀀스를 시퀀스로 매핑하는 작업에는 사용할 수 없다. 0.2. Seq2Seq - 이 논문에서는 시퀀스 구조에 대한 가정을 최소화하는 일반적인 end-to-end 시퀀스 학습 접근법을 제안한다. 이 방법은 다층 Long Short-Term Memory(LSTM)를 사용해 입력 시퀀스를 고정 차원의 벡터로 매핑하고, 또 다른 깊은 LSTM을 사용해 해당 벡터에서 타겟 시퀀스를 디코딩한다. - 주요 결과로, WMT-14 데이터셋의 영어-프랑스어 번역 작업에서 LSTM이 전체 테스트 세트에서 BLEU 점수 34.8을 기록1. Introduction .. 2024. 12. 27. 이전 1 ··· 49 50 51 52 53 54 55 ··· 76 다음