Miscellaneous58 [2024-2] 황징아이 - 차원축소 : PCA, SVD, LSA, LDA, MF 1. 차원 축소란?차원의 저주 (Curse of Dimension)는 입력된 데이터의 수보다 데이터의 차원이 더 큰 경우 발생하는 문제입니다. 예를 들어 100개의 데이터 그리고 각 데이터의 차원은 500인 상황이 발생하게 되면 백터 공간의 차원이 무수히 커지고 데이터는 여기저기 흩뿌려지게 됩니다. 모델의 복잡도가 증가하고 예측 성능이 낮아지게 됩니다.차원 축소는 이러한 고차원 데이터를 저차원으로 변환하여 계산 효율을 높이고, 노이즈를 제거하며, 중요한 정보를 유지하면서도 이해하기 쉽게 만들어주는 중요한 기법입니다.Feature Selection : 특정 Feature에 종속성이 강한 불필요한 Feature 제거 우리 목적의 불필요한 Feature를 날림Feature Extraction : 기존 Feau.. 2024. 12. 21. [2024-2] 김영중 - Learning representations by back-propagating errors https://www.semanticscholar.org/paper/Learning-representations-by-back-propagating-errors-Rumelhart-Hinton/052b1d8ce63b07fec3de9dbb583772d860b7c769 www.semanticscholar.org 0. Abstract 신경망 학습의 핵심 아이디어: 역전파(back-propagation) 알고리즘네트워크의 출력 오류를 계산하고 가중치에 효율적으로 전달가중치 업데이트 수행으로 학습 성능 개선다층 퍼셉트론 신경망 학습에서 중요한 역할오류 전파를 위해 연쇄 법칙(chain rule) 사용반복적인 가중치 조정을 통해 최적화 수행1. Background 많은 시도가 있었던 self-organizing ne.. 2024. 12. 8. [2024-1] 김동한 - A Short Introduction to Boosting https://cseweb.ucsd.edu/~yfreund/papers/IntroToBoosting.pdf0. Abstractboosting은 당시 주어진 learning 알고리즘보다 정확도를 향상시킴. AdaBoost에 대해 설명하는데, boosting의 기본 정리들, 왜 overfitting문제가 왜 없는지 설명하고, svm과의 관계에 대해 설명하는 논문임.1. Introduction경마 순위 예측에 대해 경마전문가들이 말을 선택하는 기준을 설명해달라하면 그 이유를 잘 설명하지 못함. 그러나, data가 주어졌을 때 말을 선택할 수 있음. >> (최근에 가장 많이 우승한 말에 베팅하거나 그 확률이 가장 높은 말에 베팅을 진행) 일명 rule of thumbrule of thumb의 이득을 최대화 하기.. 2024. 5. 21. [2024-1] 박지연 - Rectified Linear Units(ReLU) Improve Restricted Boltzmann Machines https://www.cs.toronto.edu/~hinton/absps/reluICML.pdfRestricted Boltzmann Machine(RBM)보통 generative model이라고 하는데 ANN, DNN, CNN, RNN 등과 같은 deterministic model들과 다른 목표를 가짐 → deterministic model들은 타겟과 가설 간의 차이를 줄여서 오차를 줄이는 것이 목표 , generative model들의 목표는 확률밀도 함수를 모델링하는 것https://angeloyeo.github.io/2020/10/02/RBM.htmlRBM은 이렇듯 확률분포(정확하게는 pdf, pmf)를 학습하기 위해 만들어졌다고 할 수 있다RBM의 구조-> 많은 RBM의 연구에서 visible u.. 2024. 5. 12. 이전 1 ··· 8 9 10 11 12 13 14 15 다음