본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

전체 글75

[2024-1] 현시은 - Optimizing LLM Queries in Relational Workloads 원본 논문 링크 : https://arxiv.org/abs/2403.05821 Optimizing LLM Queries in Relational WorkloadsAnalytical database providers (e.g., Redshift, Databricks, BigQuery) have rapidly added support for invoking Large Language Models (LLMs) through native user-defined functions (UDFs) to help users perform natural language tasks, such as classification, entarxiv.org Abstract LLM은 굉장히 범용적으로 사용되고 있지만, LLM infe.. 2024. 5. 14.
[2024-1] 박지연 - Rectified Linear Units(ReLU) Improve Restricted Boltzmann Machines https://www.cs.toronto.edu/~hinton/absps/reluICML.pdfRestricted Boltzmann Machine(RBM)보통 generative model이라고 하는데 ANN, DNN, CNN, RNN 등과 같은 deterministic model들과 다른 목표를 가짐 → deterministic model들은 타겟과 가설 간의 차이를 줄여서 오차를 줄이는 것이 목표 , generative model들의 목표는 확률밀도 함수를 모델링하는 것https://angeloyeo.github.io/2020/10/02/RBM.htmlRBM은 이렇듯 확률분포(정확하게는 pdf, pmf)를 학습하기 위해 만들어졌다고 할 수 있다RBM의 구조-> 많은 RBM의 연구에서 visible u.. 2024. 5. 12.
[2024-1] 주서영 - A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks https://arxiv.org/pdf/1610.02136Image Classification에 학습 시 한번도 보지 못한 데이터 분포에 대해서도 높은 신뢰도를 갖고 잘못된 예측을 할 수 있다.이처럼 모델의 학습 과정에서 고려되지 않는 데이터셋을 Out-of-Distribution이라고 하며 해당 논문은 OOD Detection하는 task를 처음으로 제시한 논문이다.OOD detection에 대해 문제 정의와 평가 방법 등을 제시하였다.Abstract$\mathrm{Softmax}$ 의 Maximum을 confidence score를 임계값으로 사용하여 컴퓨터 비전, 자연처 처리, 자동 음성 인식 분야에서의 평가 방법을 제시하였다.OOD Detection의 후속 연구에 대한 baseline 모델을 제시.. 2024. 5. 12.
[2024-1] 박태호 - Chain-of-Thought Reasoning Without Prompting https://arxiv.org/abs/2402.10200 Chain-of-Thought Reasoning Without PromptingIn enhancing the reasoning capabilities of large language models (LLMs), prior research primarily focuses on specific prompting techniques such as few-shot or zero-shot chain-of-thought (CoT) prompting. These methods, while effective, often involve manuallarxiv.orgAbstractLLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 .. 2024. 5. 11.