네이버랩스, CVPR 2017에서 범용 DAN 알고리즘 발표한다

네이버랩스와 네이버, 서치솔루션에서 고안한 머신러닝 알고리즘을 담고있는 논문이 오는 7월 23일 세계적인 컴퓨터 비전학회인 CVPR 2017에서 발표된다. 남현섭(서치솔루션), 하정우(네이버), 김정희(네이버랩스) 공저인 'Dual Attention Networks for Multimodal Reasoning and Matching'이다.

Dual Attention Network(DAN) 알고리즘이란 AI에게 '이미지(image)와 텍스트(text) 등 전혀 다른 두 종류의 데이터를 제시하고 그를 동시에 이용해 답을 찾게끔 만드는 머신러닝 기법이다. 이 알고리즘을 장착한 AI는 핸드폰이 찍힌 사진을 제시하면서 '저기 있는 핸드폰 색깔이 뭐냐'고 물었을 때 높은 확률로 정확한 답을 제시할 수 있다.

이번에 CVPR 2017에서 소개되는 논문은 이 알고리즘을 보다 많은 분야에서 쓸 수 있도록 범용적 방법론으로 확장한 것이다. 네이버랩스 Intelligence팀의 김정희 연구원은 "DAN 알고리즘을 확장시켜서 '이 텍스트에 맞는 이미지를 찾아줘'라던가 '이 그림과 어울리는 음악은 뭐야?' 같은 질문에 대해 좋은 답을 찾아내도록 하는 방법을 연구했다"고 말했다.

Paper URL: https://arxiv.org/abs/1611.00471

Related Articles