본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Natural Language Processing18

[2024-1] 현시은 - AIOS: LLM Agent Operating System 원본 논문 링크 : https://arxiv.org/abs/2403.16971 Abstract LLM 기반 agent의 통합 및 배포는 효율성 측면에서 많은 문제가 있다.예를 들어, LLM agent의 스케줄링, 리소스 할당, 스케줄링으로 인한 context 유지 및 전환, multi-agent 상황에서의 효율성 저하 등이 있다.Agent가 많아지고 복잡해지면 이런 문제는 큰 bottleneck이 되고, 리소스 활용을 최적화하기도 어렵다.위 문제를 해결하기 위해 본 논문은 LLM agent들을  OS의 개념을 활용하여 관리하는 새로운 OS 아키텍처인 AIOS를 제시한다.AIOS는 리소스 할당 최적화, Agent 간 context switching, Agent 동시 실행 지원, Agent Toolkit 제.. 2024. 5. 17.
[2024-1] 현시은 - Optimizing LLM Queries in Relational Workloads 원본 논문 링크 : https://arxiv.org/abs/2403.05821 Optimizing LLM Queries in Relational WorkloadsAnalytical database providers (e.g., Redshift, Databricks, BigQuery) have rapidly added support for invoking Large Language Models (LLMs) through native user-defined functions (UDFs) to help users perform natural language tasks, such as classification, entarxiv.org Abstract LLM은 굉장히 범용적으로 사용되고 있지만, LLM infe.. 2024. 5. 14.
[2024-1] 박태호 - Chain-of-Thought Reasoning Without Prompting https://arxiv.org/abs/2402.10200 Chain-of-Thought Reasoning Without PromptingIn enhancing the reasoning capabilities of large language models (LLMs), prior research primarily focuses on specific prompting techniques such as few-shot or zero-shot chain-of-thought (CoT) prompting. These methods, while effective, often involve manuallarxiv.orgAbstractLLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 .. 2024. 5. 11.
[2024-1] 박태호 - Large Language Models are Human-Level Prompt Engineers https://arxiv.org/abs/2211.01910 Large Language Models Are Human-Level Prompt Engineers By conditioning on natural language instructions, large language models (LLMs) have displayed impressive capabilities as general-purpose computers. However, task performance depends significantly on the quality of the prompt used to steer the model, and mo arxiv.org Abstract. LLM은 여러 방면으로 높은 성능을 보이지만, 모델을 조종하.. 2024. 4. 12.