전체 글78 [2024-1] 박지연 - Rectified Linear Units(ReLU) Improve Restricted Boltzmann Machines https://www.cs.toronto.edu/~hinton/absps/reluICML.pdfRestricted Boltzmann Machine(RBM)보통 generative model이라고 하는데 ANN, DNN, CNN, RNN 등과 같은 deterministic model들과 다른 목표를 가짐 → deterministic model들은 타겟과 가설 간의 차이를 줄여서 오차를 줄이는 것이 목표 , generative model들의 목표는 확률밀도 함수를 모델링하는 것https://angeloyeo.github.io/2020/10/02/RBM.htmlRBM은 이렇듯 확률분포(정확하게는 pdf, pmf)를 학습하기 위해 만들어졌다고 할 수 있다RBM의 구조-> 많은 RBM의 연구에서 visible u.. 2024. 5. 12. [2024-1] 주서영 - A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks https://arxiv.org/pdf/1610.02136Image Classification에 학습 시 한번도 보지 못한 데이터 분포에 대해서도 높은 신뢰도를 갖고 잘못된 예측을 할 수 있다.이처럼 모델의 학습 과정에서 고려되지 않는 데이터셋을 Out-of-Distribution이라고 하며 해당 논문은 OOD Detection하는 task를 처음으로 제시한 논문이다.OOD detection에 대해 문제 정의와 평가 방법 등을 제시하였다.Abstract$\mathrm{Softmax}$ 의 Maximum을 confidence score를 임계값으로 사용하여 컴퓨터 비전, 자연처 처리, 자동 음성 인식 분야에서의 평가 방법을 제시하였다.OOD Detection의 후속 연구에 대한 baseline 모델을 제시.. 2024. 5. 12. [2024-1] 박태호 - Chain-of-Thought Reasoning Without Prompting https://arxiv.org/abs/2402.10200 Chain-of-Thought Reasoning Without PromptingIn enhancing the reasoning capabilities of large language models (LLMs), prior research primarily focuses on specific prompting techniques such as few-shot or zero-shot chain-of-thought (CoT) prompting. These methods, while effective, often involve manuallarxiv.orgAbstractLLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 .. 2024. 5. 11. [2024-1] 백승우 - A Unified Approach to Interpreting Model Predictions A Unified Approach to Interpreting Model PredictionsRequests for name changes in the electronic proceedings will be accepted with no questions asked. However name changes may cause bibliographic tracking issues. Authors are asked to consider this carefully and discuss it with their co-authors prior to requepapers.nips.cc0. Abstrct- Additive feature attribution methods에서 게임이론을 기반으로 하는 Shap Value가.. 2024. 5. 7. 이전 1 2 3 4 5 6 7 8 ··· 20 다음