네이버랩스, CVPR 2017서 논문 5편 발표

네이버랩스가 세계 최대 '컴퓨터 비전 및 패턴 인식' 컨퍼런스인 CVPR (IEEE Conference on Computer Vision and Pattern Recognition)2017에서 총 5편의 논문을 발표한다. 4편의 논문은 지난 6월 네이버가 인수한 AI 연구소 '네이버랩스 유럽'(구, 제록스리서치센터유럽)의 연구 성과다.

5편의 논문 중 'Dual Attention Networks for Multimodal Reasoning and Matching' 과 'LCR-Net: Localization-Classification-Regression for Human Pose'은 올해 CVPR 상위 8% 이내에 선정되어 '스포트라이트 세션'에서 별도 발표된다. CVPR2017은 오는 21일부터 26일까지(현지시각) 하와이 호놀룰루에 위치한 하와이 컨벤션센터에서 개최된다.


논문 목록

Dual Attention Networks for Multimodal Reasoning and Matching (NAVER, NAVER LABS, 서치솔루션) : 작년 VQA 챌린지에서 2위를 차지했던 네이버랩스의 DAN 알고리듬을 고도화해 범용성을 확장시키는 방식에 대한 연구 논문

LCR-Net: Localization-Classification-Regression for Human Pose (NAVER LABS) : 사람 행동을 카메라로 인식하고 그 사람이 어떤 액션을 하고 있는가를 인지하는 방식에 대한 연구 논문

Procedural Generation of Videos to Train Deep Action Recognition Networks (NAVER LABS) : 사람의 움직임이나 날씨, 장소 같은 변수를 지정하면 거기에 맞는 설정을 지원해 효율적으로 VR 시뮬레이션을 할 수 있는 방안에 대한 연구

AnchorNet: A Weakly Supervised Network to Learn Geometry-sensitive Features For Semantic Matching (NAVER LABS) : 두 가지 이미지의 특징을 각각 포착, 하나의 이미지에서 다른 이미지로의 변화를 자연스럽게 만드는 모핑 기술에 대한 연구

Beyond instance-level image retrieval: Leveraging human captions to learn representations for semantic visual search (NAVER LABS) : 컴퓨터가 이미지의 내용을 이해하고 그와 비슷한 이미지를 찾아내는 기술 연구

Related Articles