전체 글78 [2023-2] 김경훈 - Latent Consistency Models: Synthesizing High-Resolution Images wi 원본 논문 링크 : https://arxiv.org/abs/2310.04378 Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step InferenceLatent Diffusion models (LDMs) have achieved remarkable results in synthesizing high-resolution images. However, the iterative sampling process is computationally intensive and leads to slow generation. Inspired by Consistency Models (song et al.), we proparxiv.org PD.. 2024. 1. 23. [2023-2] 김동한 - NeuralProphet: Explainable Forecasting at Scale 논문 소개 : https://paperswithcode.com/paper/neuralprophet-explainable-forecasting-at 논문 링크 : https://arxiv.org/pdf/2111.15397v1.pdf 이전 prophet논문 리뷰: https://outta.tistory.com/19 NeuralProphet: Explainable Forecasting at Scale 0. Abstract - facebook prophet의 후속 모델 - 설명 가능하고 확장 가능 / 사용자 친화적 예측 프레임워크 - 시계열 데이터에서의 적용 - 기존의 prophet은 근접 미래를 예측하기 위해 필수적인 지역적 맥락이 없다면, 적용 및 확장이 어려움. - nerual prophet 모델은 pyt.. 2024. 1. 23. [2023-2] 김민재 - Plug and Play Language Models: A Simple Approach to Controlled Text Generation 원본 논문 링크 : https://paperswithcode.com/paper/plug-and-play-language-models-a-simple Motivation 이 논문의 목적은 생성 모델에서 텍스트가 생성될 때 원하는 방향으로 생성되는 것이다. 예를 들어, 기존 모델인 GPT-2의 경우 Input으로 부정적인 문장을 넣을 경우 그 뒤 생성되는 문장들이 부정적으로 생성된다. 즉 Input 문장의 방향에 따라 그 뒤에 생성되는 문장의 방향도 결정된다. 그러나, 이 논문에서는 Input에 넣은 문장의 방향과 상관없이 원하는 방향으로 문장을 생성하는 것을 목적으로 한다. 그러나, 원하는 방향으로 문장을 생성하기 위해 조건 a를 추가하여 p(x|a)를 학습시킬 때 문장이 제대로 생성되는지 평가하기가 어렵.. 2024. 1. 9. [2023-2] 염제원 - TASK2VEC: Task Embedding for Meta-Learning https://arxiv.org/abs/1902.03545 Task2Vec: Task Embedding for Meta-Learning We introduce a method to provide vectorial representations of visual classification tasks which can be used to reason about the nature of those tasks and their relations. Given a dataset with ground-truth labels and a loss function defined over those label arxiv.org Abstract Visual Classification Task에서 Task를 Vector로 표현하.. 2024. 1. 7. 이전 1 ··· 12 13 14 15 16 17 18 ··· 20 다음