전체 글269 [2025-1] 백승우 - Can Large Language Models Grasp Legal Theories? Enhance Legal Reasoning with Insights from Multi-Agent Collaboration Can Large Language Models Grasp Legal Theories? Enhance Legal Reasoning with Insights from Multi-Agent CollaborationWeikang Yuan, Junjie Cao, Zhuoren Jiang, Yangyang Kang, Jun Lin, Kaisong Song, Tianqianjin Lin, Pengwei Yan, Changlong Sun, Xiaozhong Liu. Findings of the Association for Computational Linguistics: EMNLP 2024. 2024.aclanthology.orgMotivationsLegal 분야에서는 LLMs를 이용해서 법 이론을 충분히 이해하고 복잡.. 2025. 3. 7. [2025-1]전윤경 - VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection IntroductionVoxelNet : 포인트 클라우드에서 판별적인 특징 표현을 학습하는 동시에 정확한 3D 바운딩 박스를 end-to-end 학습이 가능한 통합 3D 탐지 네트워크(LiDAR만을 이용한 탐지)포인트 클라우드를 일정한 간격의 3D 복셀로 나눔복셀 특징 인코딩(VFE) 레이어를 활용 -> 각 복셀 내의 포인트 그룹을 통합된 특징 표현으로 변환RPN(효율적인 객체 탐지를 위한 최적화된 알고리즘)과 연결되어 탐지를 수행VoxelNet 특징 학습 네트워크(Feature learning network)합성곱 중간 계층(Convolutional middle layers)영역 제안 네트워크(Region proposal network, RPN)1. Feature learning network복셀 분.. 2025. 3. 7. [2025-1] 임수연 - SPVNAS https://arxiv.org/abs/2007.16100 Searching Efficient 3D Architectures with Sparse Point-Voxel ConvolutionSelf-driving cars need to understand 3D scenes efficiently and accurately in order to drive safely. Given the limited hardware resources, existing 3D perception models are not able to recognize small instances (e.g., pedestrians, cyclists) very well due toarxiv.org안녕하세요, 이번 글에서는 Searching Eff.. 2025. 3. 7. [2025-1] 주서영 - Deep Reinforcement Learning from Human Preferences RLHFNeurIPS 20173556회 인용⇒ OpenAI/Google에서 발표본 논문에서는 명확한 보상 함수 없이도 효과적인 학습이 가능하도록 인간의 선호(preference)를 활용하는 방법을 연구한다.기존의 RL 방식은 잘 정의된 보상 함수가 필요하지만 현실 세계에서 많은 문제들은 명시적인 보상 함수를 설계하기 어렵다. 저자들은 비전문가(non-expert) 인간이 두 개의 행동(trajectory segment) 중 선호하는 것을 선택하도록 하는 방법을 제안하고 이를 통해 학습 가능한 보상 함수를 추론하여 RL 시스템을 학습하였다.⇒ InstructGPT를 포함한 챗봇과 언어 모델에 RLHF(Reinforcement Learning from Human Feedback)를 적용할 수 있는 계기를 마.. 2025. 3. 6. 이전 1 ··· 7 8 9 10 11 12 13 ··· 68 다음