본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

전체 글301

[2024-2] 이재호 CNN의 역사 1 (2012~2015) 이번 포스팅에서는  2012년부터 2015년에 이르기까지 CNN의 다양한 모델들에 대해 알아보겠습니다.  # 목차1. AlexNet (2012)2. RCNN (2013)3. VGGNet (2014)4. ResNet (2015) # AlexNet - ImageNet Classification with Deep Convolutional Neural Networkshttps://papers.nips.cc/paper_files/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html ImageNet Classification with Deep Convolutional Neural NetworksRequests for name changes in the el.. 2024. 12. 8.
[2024-2] 김영중 - Learning representations by back-propagating errors https://www.semanticscholar.org/paper/Learning-representations-by-back-propagating-errors-Rumelhart-Hinton/052b1d8ce63b07fec3de9dbb583772d860b7c769 www.semanticscholar.org 0. Abstract 신경망 학습의 핵심 아이디어: 역전파(back-propagation) 알고리즘네트워크의 출력 오류를 계산하고 가중치에 효율적으로 전달가중치 업데이트 수행으로 학습 성능 개선다층 퍼셉트론 신경망 학습에서 중요한 역할오류 전파를 위해 연쇄 법칙(chain rule) 사용반복적인 가중치 조정을 통해 최적화 수행1. Background 많은 시도가 있었던 self-organizing ne.. 2024. 12. 8.
[2024 - 2] 김동규 - GoogLeNet : Going Deeper with Convolutions Abstract2014년 이미지넷 인식 대회에서 VGG를 누르고 1위를 차지한 모델입니다. VGG와 마찬가지로 깊은 층을 구성하여 성능을 향상시켰습니다. VGG19는 19개의 층을, GoogLeNet은 22개의 층으로 구성되어 있습니다. GoogLeNet은 연산을 하는데 소모되는 자원의 효율을 개선했다는 것이 특징입니다. 잘 설계된 구조를 통해 모델의 깊이나 폭을 늘려도 연산량이 증가하지 않는다고 합니다. GoogLeNet을 최적화하기 위해 Hebbian priciple과 multi-scale processing을 적용하였고, 이 구조를 GoogLeNet이라 부른다고 합니다.  1. Introduction 지난 3년간, 딥러닝의 발전 덕에 CNN 분야에서 큰 발전이 이루어져 왔습니다. 이러한 발전은 단지.. 2024. 12. 8.
[2024 - 2] 김동규 - LeNet : Gradient-Based Learning Appliedto Document Recognition LeNet의 들어가기에 앞서서 LeNet은 CNN의 개념을 제시하고 현대 CNN 모델들의 기초가 되는 모델입니다. 1. Introduction 해당 논문의 주요 메시지는 " 패턴인식 시스템은 hand-designed heuristics를 줄이고 자동화 학습에 주력해서 만드는 것이 더 좋은 성능을 가진다" Introduction에서는 두 가지 케이스를 제시합니다.  첫 번째는 character recognition, 두 번째는 document understading입니다. character recognition의 경우 독립된 하나의 글자를 인식하는 문제입니다. 이러한 문제는 픽셀 이미지에 직접 동작하는 머신을 사용하는 것이 효과적이며 저희가 알고 있는 CNN을 의미합니다. document understad.. 2024. 12. 7.