분류 전체보기364 [2024-2] 최민서 - Deep Unsupervised Learning using Nonequilibrium Thermodynamics https://arxiv.org/abs/1503.03585 Deep Unsupervised Learning using Nonequilibrium ThermodynamicsA central problem in machine learning involves modeling complex data-sets using highly flexible families of probability distributions in which learning, sampling, inference, and evaluation are still analytically or computationally tractable. Here, we develarxiv.org 생성형 모델이 이미지를 생성하는 방식은 다양하고 그 중 하나가 di.. 2025. 1. 3. [2024-2] 박경태 - deeplearning: Linear Algebra https://www.deeplearningbook.org/contents/linear_algebra.html https://www.deeplearningbook.org/contents/linear_algebra.htmlChapter 2 Linear Algebra Linear algebra is a branch of mathematics that is widely used throughout science and engineering. Yet because linear algebra is a form of continuous rather than discrete mathematics, many computer scientists have little experiencewww.deeplearningbook.. 2024. 12. 31. [2024-2] 김지원 - HybridRAG: Integrating Knowledge Graphs and Vector Retrieval Augmented Generation for Efficient Information Extraction 논문 링크 : HybridRAG: Integrating Knowledge Graphs and Vector Retrieval Augmented Generation for Efficient Information Extraction 논문 리뷰에 앞서 RAG에 대한 간략한 소개 RAG(Retrieval-Augmented Generation)은 Lewis et al.(2020) 논문에서부터(아래 링크 참고) 등장하였는데 이 논문에서는 LLM이 parametric memory(모델 학습 시 배우게 되는 지식) 뿐만 아니라 non-parametric memory(예를 들어 Wikipedia 등 외부 지식)을 활용하여 QA task에 높은 성능을 내도록 했다.대표적인 사례로 Perplexity가 존재하며 그 작동 .. 2024. 12. 31. [2024-2] 전연주 - EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks 논문 링크: EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksEfficientNet은 모델의 크기를 확장하는 방법(Scaling)을 새롭게 정립하고, 그 결과 훨씬 효율적인 CNN 구조를 제시한다.이를 이해하기 위해서는 먼저 NASNet과 MnasNet 같은 Neural Architecture Search(NAS) 기반 모델들이 어떤 배경에서 나왔고, 어떻게 발전했는지를 파악할 필요가 있다.더보기NASNet, MnasNet 논문 리뷰 링크: https://blog.outta.ai/102 [2024-2] 정인아 - Learning Transferable Architectures for Scalable Image Recognit.. 2024. 12. 30. 이전 1 ··· 63 64 65 66 67 68 69 ··· 91 다음