본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

분류 전체보기364

[2024-2] 황영희 - ImageNet Classificatioin with Deep Convolutional Neural Networks(AlexNet) https://papers.nips.cc/paper_files/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html Papers with Code - ImageNet Classification with Deep Convolutional Neural Networks#4 best model for Graph Classification on HIV-fMRI-77 (Accuracy metric)paperswithcode.com1. Introduction이전의 데이터셋 크기는 수만 장 수준으로 상대적으로 매우 적었다. 따라서 MNIST와 같은 데이터셋에서는 라벨을 유지하면서 데이터 증강(augmentation)을 적용하면 간단한 인식 작업은 높은 성능으로.. 2024. 12. 27.
[2024-2] 임재열 - GAN(Generative Adversarial Networks), Conditional GAN GAN(Generative Adversarial Networks, 생성적 적대 신경망)은 2014년 Ian Goodfellow 등이 제안한 모델입니다. 해당 논문을 요약하여 모델의 핵심 아이디어를 파악하고, GAN의 한계점을 극복하기 위해 2014년 Mehdi Mirza와 Simon Osindero가 제안한 Conditional GAN 모델도 간단하게 알아보겠습니다. [GAN]https://arxiv.org/abs/1406.2661 Generative Adversarial NetworksWe propose a new framework for estimating generative models via an adversarial process, in which we simultaneously train tw.. 2024. 12. 21.
[2024-2] 김영중 - Seq2Seq(Sequence to Sequence Learning with Neural Networks) https://arxiv.org/abs/1409.3215 Sequence to Sequence Learning with Neural NetworksDeep Neural Networks (DNNs) are powerful models that have achieved excellent performance on difficult learning tasks. Although DNNs work well whenever large labeled training sets are available, they cannot be used to map sequences to sequences. In this paparxiv.org Abstract  Sequence-to-Sequence(Seq2Seq) 모델은 기존의 순환.. 2024. 12. 21.
[2024-2] 황징아이 - 차원축소 : PCA, SVD, LSA, LDA, MF 1. 차원 축소란?차원의 저주 (Curse of Dimension)는 입력된 데이터의 수보다 데이터의 차원이 더 큰 경우 발생하는 문제입니다. 예를 들어 100개의 데이터 그리고 각 데이터의 차원은 500인 상황이 발생하게 되면 백터 공간의 차원이 무수히 커지고 데이터는 여기저기 흩뿌려지게 됩니다. 모델의 복잡도가 증가하고 예측 성능이 낮아지게 됩니다.차원 축소는 이러한 고차원 데이터를 저차원으로 변환하여 계산 효율을 높이고, 노이즈를 제거하며, 중요한 정보를 유지하면서도 이해하기 쉽게 만들어주는 중요한 기법입니다.Feature Selection : 특정 Feature에 종속성이 강한 불필요한 Feature 제거 우리 목적의 불필요한 Feature를 날림Feature Extraction : 기존 Feau.. 2024. 12. 21.