Miscellaneous61 [2024-2] 김영중 - Learning representations by back-propagating errors https://www.semanticscholar.org/paper/Learning-representations-by-back-propagating-errors-Rumelhart-Hinton/052b1d8ce63b07fec3de9dbb583772d860b7c769 www.semanticscholar.org 0. Abstract 신경망 학습의 핵심 아이디어: 역전파(back-propagation) 알고리즘네트워크의 출력 오류를 계산하고 가중치에 효율적으로 전달가중치 업데이트 수행으로 학습 성능 개선다층 퍼셉트론 신경망 학습에서 중요한 역할오류 전파를 위해 연쇄 법칙(chain rule) 사용반복적인 가중치 조정을 통해 최적화 수행1. Background 많은 시도가 있었던 self-organizing ne.. 2024. 12. 8. [2024-1] 김동한 - A Short Introduction to Boosting https://cseweb.ucsd.edu/~yfreund/papers/IntroToBoosting.pdf0. Abstractboosting은 당시 주어진 learning 알고리즘보다 정확도를 향상시킴. AdaBoost에 대해 설명하는데, boosting의 기본 정리들, 왜 overfitting문제가 왜 없는지 설명하고, svm과의 관계에 대해 설명하는 논문임.1. Introduction경마 순위 예측에 대해 경마전문가들이 말을 선택하는 기준을 설명해달라하면 그 이유를 잘 설명하지 못함. 그러나, data가 주어졌을 때 말을 선택할 수 있음. >> (최근에 가장 많이 우승한 말에 베팅하거나 그 확률이 가장 높은 말에 베팅을 진행) 일명 rule of thumbrule of thumb의 이득을 최대화 하기.. 2024. 5. 21. [2024-1] 박지연 - Rectified Linear Units(ReLU) Improve Restricted Boltzmann Machines https://www.cs.toronto.edu/~hinton/absps/reluICML.pdfRestricted Boltzmann Machine(RBM)보통 generative model이라고 하는데 ANN, DNN, CNN, RNN 등과 같은 deterministic model들과 다른 목표를 가짐 → deterministic model들은 타겟과 가설 간의 차이를 줄여서 오차를 줄이는 것이 목표 , generative model들의 목표는 확률밀도 함수를 모델링하는 것https://angeloyeo.github.io/2020/10/02/RBM.htmlRBM은 이렇듯 확률분포(정확하게는 pdf, pmf)를 학습하기 위해 만들어졌다고 할 수 있다RBM의 구조-> 많은 RBM의 연구에서 visible u.. 2024. 5. 12. [2024-1] 백승우 - A Unified Approach to Interpreting Model Predictions A Unified Approach to Interpreting Model PredictionsRequests for name changes in the electronic proceedings will be accepted with no questions asked. However name changes may cause bibliographic tracking issues. Authors are asked to consider this carefully and discuss it with their co-authors prior to requepapers.nips.cc0. Abstrct- Additive feature attribution methods에서 게임이론을 기반으로 하는 Shap Value가.. 2024. 5. 7. 이전 1 ··· 9 10 11 12 13 14 15 16 다음