본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

분류 전체보기148

[2023-2] 김민재 - Unified Language Model Pre-training for Natural Language Understanding and Generation https://paperswithcode.com/paper/unified-language-model-pre-training-for Introduction Table 1에서 볼 수 있듯 각각 다른 종류의 예측 작업을 위해 ELMo, GPT, BERT 등의 여러 종류의 LM(Language Model)이 사용됨을 확인할 수 있음 이 논문에서 소개할 UniLM은 NLU(Natural Language Understading)와 NLG(Natural Language Generation)에 모두 사용 가능 UniLM은 다층의 Transformer network로 많은 양의 텍스트가 함께 pre-training 되었으며 Table 2에서 볼 수 있듯 3가지 유형의 비지도 LM 목표에 최적화됨 BERT가 NLU에 주로.. 2024. 2. 27.
[2023-2] 백승우 - 🦩 Flamingo: a Visual Language Model for Few-Shot Learning Flamingo: a Visual Language Model for Few-Shot Learning Building models that can be rapidly adapted to novel tasks using only a handful of annotated examples is an open challenge for multimodal machine learning research. We introduce Flamingo, a family of Visual Language Models (VLM) with this ability. We propo arxiv.org 0. Abstract Flamingo의 주요 아키텍쳐 발전 (1) 사전 학습된 강력한 시각 전용 모델과 언어 전용 모델을 연결 (2) .. 2024. 2. 23.
[2023-2] 김동한 - Improving Library User Experience with A/B Testing: Principles and Process A/B 테스트를 실제로 진행했던 사례연구에 대한 논문 https://quod.lib.umich.edu/w/weave/12535642.0001.101?view=text;rgn=main Abstract 사용자 경험 연구 방법론에 해당하는 A/B 테스트를 통해 사용자 상호작용 측정 및 평가 A/B 테스트 가장 성과가 좋은 변형을 결정하기 위해 제품이나 서비스의 다양한 변형을 사용자에게 무작위로 제공하는 통제된 실험과정을 수반 A/B테스트 진행과정에서 수집되고 분석된 데이터를 통해 도서관은 사용자 중심의 웹사이트 변경을 시작, 사용자 경험을 개선 : 이 논문에서는 도서관 사이트에서의 A/B 테스트 프로세스를 설명함. Introduction - UX(사용자 경험 : User Experience) 연구자는 도서관 .. 2024. 2. 20.
[2023-2] 김경훈 - Mask R-CNN 원본 논문 링크 : https://arxiv.org/abs/1703.06870 Mask R-CNN We present a conceptually simple, flexible, and general framework for object instance segmentation. Our approach efficiently detects objects in an image while simultaneously generating a high-quality segmentation mask for each instance. The method, called arxiv.org Introduction 이번 포스팅에서는 Mask R-CNN에 대해 소개하려고 합니다. Mask R-CNN은 주로 인스턴스 분할 작업에 사.. 2024. 2. 20.