분류 전체보기264 [2025-1] 김학선 - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and Semantic Reward https://arxiv.org/abs/2401.03374 LLM-Powered Code Vulnerability Repair with Reinforcement Learning and Semantic RewardIn software development, the predominant emphasis on functionality often supersedes security concerns, a trend gaining momentum with AI-driven automation tools like GitHub Copilot. These tools significantly improve developers' efficiency in functional codearxiv.orgAbstract최근 AI 기.. 2025. 3. 18. [2025-1] 정유림 - GNN (GCN, GraphSAGE, GAT) PaperGCN : https://arxiv.org/abs/1609.02907GraphSAGE :https://arxiv.org/abs/1706.02216GAT : https://arxiv.org/pdf/1710.10903 1. 그래프 데이터 기본 개념그래프는 노드(Vertex)와 엣지(Edge) 로 이루어지며, 이를 수학적으로 다음과 같이 표현합니다.인접 행렬 (Adjacency Matrix), 노드 간 연결 관계를 나타냄.노드의 특징 행렬 (Feature Matrix), 각 노드의 feature 값을 포함. (초기 Feature가 GNN을 거치면서 학습되고, 최종적으로 Embedding이 됩니다.) 2. 그래프로 표현할 수 있는 데이터 예시분자 구조: 원자들이 노드, 결합이 엣지로 표현됨.소셜 네트.. 2025. 3. 16. [2025-1] 정성윤 - Inception-Net 논문 리뷰 Inception Net V1 (2014)AbstractInception을 이용한 deep CNN네트워크 내의 컴퓨팅 자원을 효율적으로 사용하였다.수행 시간은 유지하면서 네트워크의 너비, 높이는 늘렸다.Hebbian, multi-scale processing을 이용해 구조적으로 최적화를 시도함총 22 layer의 딥러닝 네트워크IntroductionObject Detection에 있어서 큰 발전은 큰 모델을 쓰는 것이 아닌, 고전적인 기법과 deep 한 구조를 결합해 만들어진 것이다.객체 인식에 쓰이는 시간을 단축해 학문 분야만이 아닌 실제 세상에서 활용할 수 있는 알고리즘을 제작Inception(처음) = We need to go deeper 이라는 밈의 반대 의미로 사용, 반어법.“Deep”하다의 의.. 2025. 3. 15. [2025-1] 박제우 - TabNet : Attentive Interpretable Tabular Learning https://arxiv.org/abs/1908.07442 TabNet: Attentive Interpretable Tabular LearningWe propose a novel high-performance and interpretable canonical deep tabular data learning architecture, TabNet. TabNet uses sequential attention to choose which features to reason from at each decision step, enabling interpretability and more efficient learxiv.org https://www.intelligencelabs.tech/a5b4fc25-1500-4d1.. 2025. 3. 15. 이전 1 2 3 4 5 6 7 8 ··· 66 다음