전체 글332 [2025-2] 전윤경 - Brain Tumor Segmentation with Deep Neural Networks DNN 기반 완전 자동 뇌 종양 분할 방법( MRI 이미지 교모세포종)지역적 특징과 global한 문맥적 특징을 동시에 활용최종 레이어: 완전 연결된 레이어의 합성곱 구현을 사용2단계 훈련 절차 CNN 합성곱 신경망 접근법 데이터셋각 2D 축 이미지(슬라이스)를 순차적으로 처리각 픽셀은 T1, T2, T1C, FLAIR과 같은 서로 다른 이미지 방식에 연결1. 커널(필터) 합성곱X: 입력 채널Ws: 하위 커널 2. 비선형 활성화 함수(Maxout 비선형성)공간 위치에 대해 특징 맵 O에서 최대값을 취함3. Max pooling: 각 특징 map 내의 서브 윈도우에서 최대 특징 값 마지막 합성곱 레이어를 합성곱 출력 레이어에 연결->소프트맥스 비선형성->레이블에 대한 다항 분포로 정규화 TwoPathC.. 2025. 7. 18. [2025-2] 박제우 - FLAT REWARD IN POLICY PARAMETER SPACE IMPLIES ROBUST REINFORCEMENT LEARNING https://openreview.net/forum?id=4OaO3GjP7k Flat Reward in Policy Parameter Space Implies Robust Reinforcement...Investigating flat minima on loss surfaces in parameter space is well-documented in the supervised learning context, highlighting its advantages for model generalization. However, limited attention...openreview.net 강화학습은 지도학습, 비지도학습과 함께 대표적인 인공지능 모델의 학습 방법 중 하나이다. Data Point와 Label로 학.. 2025. 7. 18. [2025-2] 박지원 - QLORA QLORA: https://arxiv.org/abs/2305.14314 QLoRA: Efficient Finetuning of Quantized LLMsWe present QLoRA, an efficient finetuning approach that reduces memory usage enough to finetune a 65B parameter model on a single 48GB GPU while preserving full 16-bit finetuning task performance. QLoRA backpropagates gradients through a frozen, 4-bit quanarxiv.org 1. 서론: 대규모 언어 모델(LLM) fine tuning 도전과 QLORA의 등.. 2025. 7. 17. [2025-2] 박제우 - GRAPH ATTENTION NETWORKS https://arxiv.org/abs/1710.10903 Graph Attention NetworksWe present graph attention networks (GATs), novel neural network architectures that operate on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximationsarxiv.org 1. Introduction현재까지 CNN은 grid-like structure에서 높은 성능을 발휘했고, 이는 이미지 분류나 기계 .. 2025. 7. 13. 이전 1 2 3 4 5 6 7 8 ··· 83 다음