본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

Computer Vision55

[2023-2] 주서영 - Battle of the Backbones: A Large-Scale Comparison of Pretrained Models across Computer Vision Tasks Battle of the Backbones: A Large-Scale Comparison of Pretrained Models across Computer Vision Tasks Neural network based computer vision systems are typically built on a backbone, a pretrained or randomly initialized feature extractor. Several years ago, the default option was an ImageNet-trained convolutional neural network. However, the recent past has arxiv.org Abstract neural network 기반의 com.. 2024. 1. 2.
[2023-2] 현시은 - 3D image reconstruction from 2D CT slices(3DTV-CON2014) 원본 논문 링크 : https://ieeexplore.ieee.org/document/6874742 3D image reconstruction from 2D CT slicesIn this paper, a 3D reconstruction algorithm using CT slices of human pelvis is presented. We propose the method for 3D image reconstruction that is based on a combination of the SURF (Speeded-Up Robust Features) descriptor and SSD (Sum of Squared Differenieeexplore.ieee.orgAbstract이 논문에서는 정확한 인체 골반의.. 2024. 1. 2.
[2023-2] 김동한 Auto-Encoding Variational Bayes Preview - 베이즈 정리 - 기본 조건부 확률의 정의를 이용한, 전확률 공식 활용. - 사전분포를 이용해 사후분포를 표현할 때 활용 ​ ​- MLE(Maximum Likelihood Estimator) : 최대가능도 추정량 - 통계학에서 주 관심사 중 하나. 가장 그럴듯한 정도(가능도)를 최대화 하는 값을 추정량으로 사용하는 것을 의미. 확률에 기반한 통계적 추정량으로, MLE는 수학적으로 여러가지 좋은 성질들을 가져, 통계학적으로 접근할 때, 가장 자주 고려되는 추정량이다. 여기서는 log(p(xi))의 최대화에 관심을가지며 이때의 최대 추정량에 이용. ​ ​- KLD(쿨백 라이블러 괴리도 or 발산) - 두 분포의 차이를 나타내는 척도로 활용 같은 분포를 가지면 KL 값이 0 이며, 차이가 크면.. 2023. 12. 2.
[2023-2] 주서영 - Very Deep Convolutional Networks For Large-Scale Image Recognition Very Deep Convolutional Networks for Large-Scale Image Recognition In this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main contribution is a thorough evaluation of networks of increasing depth using an architecture with very small (3x arxiv.org Astract large-scale의 이미지 및 영상 인식에서 Convolution networks(ConvNets.. 2023. 11. 28.