본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Miscellaneous84

[2023-2] 김동한 - NeuralProphet: Explainable Forecasting at Scale 논문 소개 : https://paperswithcode.com/paper/neuralprophet-explainable-forecasting-at 논문 링크 : https://arxiv.org/pdf/2111.15397v1.pdf 이전 prophet논문 리뷰: https://outta.tistory.com/19 NeuralProphet: Explainable Forecasting at Scale 0. Abstract - facebook prophet의 후속 모델 - 설명 가능하고 확장 가능 / 사용자 친화적 예측 프레임워크 - 시계열 데이터에서의 적용 - 기존의 prophet은 근접 미래를 예측하기 위해 필수적인 지역적 맥락이 없다면, 적용 및 확장이 어려움. - nerual prophet 모델은 pyt.. 2024. 1. 23.
[2023-2] 김동한 - Forecasting at scale https://peerj.com/preprints/3190.pdf Forecasting at Scale Facebook의 prophet 논문 리뷰 1. Abstract ● 예측(forecasting)은 데이터 사이언스에서 중요한 업무중 하나 ● 중요성에도 불구하고, 다양한 분야의 시계열 분야가 존재하고, 시계열 분석 전문가가 희귀함 ● 목적 : 해석이 가능한 parameter(모수), domain지식이 있는 사람은 직관적으로 조절가능하게 하는 모형(시계열 분석에 대한 전문성이 떨어지더라도) 2. Introduction 문제점 ● 완전한 자동예측 기술은 flexibility가 떨어져서, tuning하기 어렵고, 적절한 가정을 포함하기 힘듦 ● 도메인 지식이 깊은 전문가가 시계열에 대한 이해가 떨어지는 경우.. 2024. 1. 2.
[2023-2] 전상완 - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks All machine learning algorithms use a loss, cost, utility or reward function to encode the learning objective and oversee the learning process. This function that supervises learning is a frequently unrecognized hyperparameter that determines how incorrect arxiv.org 개념 설명 더보기 .. 2023. 12. 2.
[2023-2] 염제원 - Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks We propose an algorithm for meta-learning that is model-agnostic, in the sense that it is compatible with any model trained with gradient descent and applicable to a variety of different learning problems, including classification, regression, and reinforc arxiv.org Abstract Model-Agnostic한 Meta-Learning 알고리즘 (MAML)을 제시함 Gradient .. 2023. 11. 24.