Miscellaneous76 [2024-2] 박경태 - deeplearning: Probability and Information Theory https://www.deeplearningbook.org/contents/prob.html https://www.deeplearningbook.org/contents/prob.html www.deeplearningbook.org I. 확률 이론의 기초1. 확률과 불확실성확률 이론은 불확실성을 다루는 수학적 도구다. 많은 자연 현상과 시스템은 본질적으로 불확실성을 포함하고 있으며, 이를 정량적으로 표현하는 데 확률 개념이 활용된다.불확실성은 다음과 같은 세 가지 주요 원천에서 발생한다:내재적 확률성시스템 자체가 본질적으로 확률적으로 작동하는 경우.예: 양자역학에서의 입자의 움직임, 무작위로 섞인 카드의 순서.불완전한 관측모든 변수를 관측하지 못해 발생하는 불확실성.예: 몬티홀 문제에서 문 뒤의 자동차 위.. 2025. 1. 3. [2024-2] 박경태 - deeplearning: Linear Algebra https://www.deeplearningbook.org/contents/linear_algebra.html https://www.deeplearningbook.org/contents/linear_algebra.htmlChapter 2 Linear Algebra Linear algebra is a branch of mathematics that is widely used throughout science and engineering. Yet because linear algebra is a form of continuous rather than discrete mathematics, many computer scientists have little experiencewww.deeplearningbook.. 2024. 12. 31. [2024-2] 황징아이 - 차원축소 : PCA, SVD, LSA, LDA, MF 1. 차원 축소란?차원의 저주 (Curse of Dimension)는 입력된 데이터의 수보다 데이터의 차원이 더 큰 경우 발생하는 문제입니다. 예를 들어 100개의 데이터 그리고 각 데이터의 차원은 500인 상황이 발생하게 되면 백터 공간의 차원이 무수히 커지고 데이터는 여기저기 흩뿌려지게 됩니다. 모델의 복잡도가 증가하고 예측 성능이 낮아지게 됩니다.차원 축소는 이러한 고차원 데이터를 저차원으로 변환하여 계산 효율을 높이고, 노이즈를 제거하며, 중요한 정보를 유지하면서도 이해하기 쉽게 만들어주는 중요한 기법입니다.Feature Selection : 특정 Feature에 종속성이 강한 불필요한 Feature 제거 우리 목적의 불필요한 Feature를 날림Feature Extraction : 기존 Feau.. 2024. 12. 21. [2024-2] 김영중 - Learning representations by back-propagating errors https://www.semanticscholar.org/paper/Learning-representations-by-back-propagating-errors-Rumelhart-Hinton/052b1d8ce63b07fec3de9dbb583772d860b7c769 www.semanticscholar.org 0. Abstract 신경망 학습의 핵심 아이디어: 역전파(back-propagation) 알고리즘네트워크의 출력 오류를 계산하고 가중치에 효율적으로 전달가중치 업데이트 수행으로 학습 성능 개선다층 퍼셉트론 신경망 학습에서 중요한 역할오류 전파를 위해 연쇄 법칙(chain rule) 사용반복적인 가중치 조정을 통해 최적화 수행1. Background 많은 시도가 있었던 self-organizing ne.. 2024. 12. 8. 이전 1 ··· 12 13 14 15 16 17 18 19 다음