본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

분류 전체보기327

[2025-2] 박제우 - Semi-Supervised Classification with Graph Convolutional Networks https://arxiv.org/abs/1609.02907 Semi-Supervised Classification with Graph Convolutional NetworksWe present a scalable approach for semi-supervised learning on graph-structured data that is based on an efficient variant of convolutional neural networks which operate directly on graphs. We motivate the choice of our convolutional architecture via a locarxiv.org 1. Introduction본 연구에서 핵심이 되는 주제는 La.. 2025. 7. 26.
[2025-2] 김지원 - Graph Neural Networks: Methods, Applications, and Opportunities 논문 정보: Waikhom, L., & Patgiri, R. (2021). Graph neural networks: Methods, applications, and opportunities. arXiv preprint arXiv:2108.10733.인용수: 80회 (25.07.26 기준)특이사항: 이 논문은 GNN 방법론 전반에 대한 survey 논문1. GNN의 기초그래프란 무엇인가?그래프는 노드(node)와 엣지(edge)로 구성된 자료구조임노드: 개체나 객체 (예: 사람, 단어, 원자)엣지: 개체 간의 관계나 연결 (예: 친구 관계, 단어 간 관련성, 화학 결합) 그래프의 특징비유클리드 구조: 이미지나 텍스트와 달리 고정된 격자 구조가 없음가변적인 이웃 수: 각 노드마다 연결된 이웃의 수가 다름순열.. 2025. 7. 26.
[2025-2] 황징아이 - One-Shot Free-View Neural Talking-Head Synthesis for Video Conferencing FaceVid2Vid 논문 : 2021년 CVPR Oral Paper (https://arxiv.org/pdf/2011.15126) Introduction코로나 때 줌과 같은 화상회의 플랫폼을 자주 사용하게 되었다. 하지만 인터넷 인프라가 부족하거나 Bandwidth가 부족한 환경에서는 영상이 뭉개지거나 지연되는 문제가 자주 발생했다. 이런 문제를 해결하기 위해, 본 논문은 단 한 장의 얼굴 이미지만으로 실제처럼 말하는 영상을 생성하는 방법을 제안한다. 기존의 얼굴 합성 (synthesizing) 방식은 크게 두 가지로 나눌 수 있다:3D 기반 모델 : 얼굴의 입체 구조를 잘 반영하지만 학습 비용이 높고 복잡하다2D 기반 모델 : 학습 효율은 좋지만 입체적인 정보를 보존하지 못해 대부분 정면 얼굴에만 국.. 2025. 7. 19.
[2025-2] 전윤경 - Brain Tumor Segmentation with Deep Neural Networks DNN 기반 완전 자동 뇌 종양 분할 방법( MRI 이미지 교모세포종)지역적 특징과 global한 문맥적 특징을 동시에 활용최종 레이어: 완전 연결된 레이어의 합성곱 구현을 사용2단계 훈련 절차 CNN 합성곱 신경망 접근법 데이터셋각 2D 축 이미지(슬라이스)를 순차적으로 처리각 픽셀은 T1, T2, T1C, FLAIR과 같은 서로 다른 이미지 방식에 연결1. 커널(필터) 합성곱X: 입력 채널Ws: 하위 커널 2. 비선형 활성화 함수(Maxout 비선형성)공간 위치에 대해 특징 맵 O에서 최대값을 취함3. Max pooling: 각 특징 map 내의 서브 윈도우에서 최대 특징 값 마지막 합성곱 레이어를 합성곱 출력 레이어에 연결->소프트맥스 비선형성->레이블에 대한 다항 분포로 정규화 TwoPathC.. 2025. 7. 18.