본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

전체 글140

[2025-1] 황징아이 - Scalable Diffusion Models with Transformers AbstractTransformer 아키텍쳐에 Diffusion을 접목 시킨 논문.기존 LDM (Latent Diffusion Model에서는 U-Net을 사용했다. 그러나 U-Net의 Inductive Bias가 Diffusion Model의 성능에 중요하지 않아서 Standard design인 Transformer를 사용.Diffusion Transformer (DiT)를 제시했다. 이는 기존의 Convolutional Network (e.g. ResNet)보다 시각적 인식에 더 효율적으로 확장할 수 있는 Vision Transformer(ViT)를 참고했다.또한, 저자는 Scaling behavior of transformers with respect to network complexity vs. .. 2025. 1. 18.
[2025-1] 이루가 - A Study on the Impact of Noise on YOLO-based Object Detection in Autonomous Driving Environments 논문링크: https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE11954529 Abstract자율주행 환경에서 노이즈가 적용되는 비율에 따라 객체를 인식하는 것에 어느 정도의 영향을 미치는 지 수치화가공하지 않은 데이터셋으로 학습한 YOLO v5 모델 사용 I. Introduction자율주행 자동차의 카메라는 악천후 조건 등에서 오는 신호의 흡수 또는 반사 강한 태양광을 받는 환경의 경우 카메라에서 얻은 데이터의 왜곡이 일어남다양한 상황에서 발생할 수 있는 노이즈가 자율주행을 위한 객체 인식에 어느 정도의 영향을 미치는지 확인전처리 하지 않은 Train data를 사용하여 YOLO 모델을 학습하고 각각 0%(original), 20%, 40%, 60%, .. 2025. 1. 18.
[2025-1] 김유현 - Unsupervised Representation Learning With Deep Convolutional Generative Adversarial Networks https://arxiv.org/abs/1511.06434 Unsupervised Representation Learning with Deep Convolutional Generative Adversarial NetworksIn recent years, supervised learning with convolutional networks (CNNs) has seen huge adoption in computer vision applications. Comparatively, unsupervised learning with CNNs has received less attention. In this work we hope to help bridge the gap betweenarxiv.org 0. Abstr.. 2025. 1. 18.
[2025-1] 조환희 - WideResNet(WRN) WRN(WideResNet)은 residual netowrk의 넓이를 증가시키고 깊이를 감소시킨 모델이다.  신경망의 넓이를 증가한다는 의미는 filter수를 증가시킨다는 것을 의미한다. 즉, WRN은 residual block을 구성하는 convolution layer의 filter 수를 증가시켜서 신경망의 넓이를 증가시켰다.  16 layer로 이루어진 WRN은 1000-layer ResNet 같은 깊은 신경망을 제치고 SOTA를 달성했다.  등장 배경 지금까지 CNN은 깊이를 증가시키는 방향으로 발전해왔다. (ex. AlexNet, VGG, Inception, ResNet) 하지만 모델의 깊이가 깊어지는 만큼 기울기 소실(gradient descent), 기울기 폭발(gradien explosion.. 2025. 1. 18.