M1

네이버랩스, CES 2019 전시물 소개

네이버랩스는 CES 2019에서 생활환경지능 기반의 최신 location & autonomous mobility intelligence 기술들을 전시합니다. 전시 부스 위치 및 개요 보기 ■ xDM Platform eXtended Definition & Dimension Map xDM platform은 스마트폰과 자율주행 머신을 위한 location과 mobility 통합 솔루션입니다. 네이버랩스에서 연구하는 로봇과 AI 기반의 HD 매핑, 측위, 내비게이션 기술과 고정밀 데이타를 통합했습니다. 3D/HD 지도를 만들고 자동 업데이트하는 기술, 실내외를 아우르는 정밀한 측위, 그리고 실시간/실공간 데이터로 맥락을 이해하는 이동 정보를 담았습니다. 이 플랫폼을 통해 AR 내비게이션, 자율주행차, 서비스 로봇, ADAS 등 다양하고 새로운 위치 기반 서비스와 자율주행 서비스를 개발할 수 있습니다.   ■ Mapping Solutions M1, Indoor Autonomous Mapping Robot M1 은 3차원 실내 정밀 지도 제작 로봇입니다. 실내공간을 자율주행하며 고성능 카메라와 LiDAR를 통해 실내 공간의 고해상도 이미지와 3D 공간 데이터를 수집합니다. 사람이 직접 해야했던 지도 제작 과정을 더욱 빠르고 효율적으로 수행합니다. 이를 통해 만들어진 고정밀 지도는 실내 공간의 자율주행 서비스 로봇, AR 내비게이션 등을 비롯한 다양한 위치 기반 서비스의 핵심 데이터가 됩니다. Self-Updating Map 네이버랩스는 지도의 최신성을 자동으로 유지하는 기술을 연구하고 있습니다. 현재 실내 자율주행 서비스 로봇이 수집한 데이터를 분석하여 최신 지도로 업데이트할 수 있는 기술을 보유하고 있습니다. 이를 위해 네이버랩스와 네이버랩스 유럽의 로보틱스, 컴퓨터 비전 기술, 딥 러닝과 머신 러닝 등 최첨단 AI 기술들이 활용되었습니다. 대규모 쇼핑몰에서 각 상점의 정보를 인식해 업데이트하는 POI change detection 기술을 확보했으며, 현재 POI attribute recognition 기술을 연구하고 있습니다. 향후 semantic mapping 기술까지 단계적으로 확장할 계획입니다.   ■ Autonomous Robots AROUND Platform, Autonomous Service Robot Platform AROUND platform은 자율주행 서비스 로봇의 대중화를 목표로 합니다. 로봇의 자율주행에 필요한 주요 기능을 매핑로봇과 xDM 클라우드로 분산시켜 로봇 제작 단가를 현저히 낮췄습니다. 먼저 매핑로봇 M1이 실내를 자율주행하며 공간 데이터를 수집합니다. 이렇게 수집된 map data는 xDM 클라우드에 업데이트 되며, 이를 활용해 클라우드 기반의 visual localization과 path planning을 통해 서비스 로봇이 자율주행하게 됩니다. AROUND platform은 심층 강화학습 (deep reinforcement learning)을 활용한 장애물 회피 기술로 돌발적인 상황 대응과 장애물/보행자 회피를 하며 목적지까지 원활한 이동을 할 수 있습니다. 서점에서 책을 나르거나 대형쇼핑몰에서 길 안내를 하는 것과 같이 공간 특성과 사용자 니즈에 맞게 커스터마이징이 가능합니다. AROUND G, Autonomous Guide Robot AROUND G는 AROUND platform을 통해 개발한 실내 자율주행 가이드 로봇입니다. 쇼핑몰, 공항, 호텔 등 복잡한 대규모 실내 공간에서 자율주행하며 가이드를 하고, AR 내비게이션을 통해 직관적인 정보를 제공합니다. xDM platform의 고정밀 실내 지도와 visual & sensor localization을 활용해 실내에서도 현재 위치를 정확하게 파악할 수 있으며, 가장 가까운 이동경로를 정확히 예측해 사용자를 안내합니다. 길을 안내하는 동안에는 본체 디스플레이의 AR 내비게이션을 통해 이동 및 공간 정보를 생생하게 전달합니다. 우리는 AROUND G를 통해 새로운 도구가 공간 속으로 자연스럽게 스며드는 생활환경지능을 실현하고자 합니다. 사용자가 목적지까지 안내를 받는 동안, 눈 앞의 로봇이라는 물리적 대상이 사라지고 가장 자연스러운 서비스와 유용한 정보만이 남는 경험을 만들고자 합니다.   ■ Autonomous Driving Hybrid HD Map & R1 네이버랩스는 자체 자율주행기술과 3D/HD mapping 기술을 접목해 hybrid HD map이라는 독자적인 매핑 기술을 연구하고 있으며, 이는 항공 사진과 모바일 매핑 시스템의 데이터를 활용한 솔루션입니다. 먼저 3D 매핑 기술로 항공촬영 이미지(aerial image)를 합성해 도로 면의 정보를 추출하고, 자체 개발된 lightweight MMS (mobile mapping system)인 R1이 이동하며 수집한 포인트 클라우드(point cloud)를 유기적으로 결합하는 방식으로 HD맵을 제작합니다. Hybrid HD map은 기존 값비싼 MMS 장비로 제작하는 HD맵에 비해 제작 비용을 절감하면서도 높은 정확도를 유지할 수 있습니다. NAVER LABS ADAS CAM NAVER LABS ADAS CAM은 자율주행차 연구에서 사용하는 딥러닝 기반 알고리즘의 ADAS (advanced drivers’ assistance system) 기능을 제공합니다. 싱글 카메라만으로 강력하게 동작되는 FCW (forward-collision warning)와 LDW (lane-departure warning) 기능을 제공합니다. 또한 xDM 플랫폼의 hybrid HD map과 연동하면 복잡한 환경에서도 더 정밀한 기능 제공이 가능해집니다. 다양한 환경 조건에서 도로 상황을 정확히 인식할 수 있도록 HDR (high dynamic range) & flicker free 기능을 가진 카메라 모듈을 자체 개발하여 적용하였습니다. ■ NAVER Maps & Wayfinding NAVER Maps & Wayfinding 네이버지도는 공간 정보 검색과 대중교통 길 찾기 및 자동차 내비게이션 등의 생활밀착형 서비스를 제공합니다. 실내외의 모든 공간을 끊김없이 연결하고 더욱 정확한 공간 정보를 제공하기 위한 연구를 지속하고 있으며, 특히 xDM platform을 통해 다양한 영역으로 확장될 수 있는 차세대 지도 서비스들을 개발하고 있습니다. Indoor AR Navigation 네이버랩스의 indoor AR navigation은 xDM platform의 매핑로봇 M1이 제작한 실내 지도와 visual & sensor localization 기술을 기반으로 GPS 신호가 없는 실내공간에서 별도의 hardware 인프라 구축 없이 사용자 위치와 방향을 정확하게 인식해 길 안내를 할 수 있습니다. 가시거리 내의 POI를 기준으로 TBT (turn-by-turn) 정보와 진행 방향을 제공합니다. AKI, Location & Geofencing Technology AKI는 xDM platform에서 제공하는 정확한 실내외 위치인식 기술, geofencing 기술, 그리고 개인화된 위치인식 등을 활용한 스마트 키즈워치입니다. 아이의 이동 패턴과 상황을 학습하며, 정확한 위치 정보를 보호자에게 적시에 제공합니다. AWAY, In-Vehicle Infotainment Platform AWAY는 차량용 인포테인먼트 플랫폼입니다. 운전자의 안전을 고려한 UI, 음성으로 조작할 수 있는 네이버지도 내비게이션, 음악과 뉴스 등 주행 환경에 최적화된 미디어 서비스를 제공합니다. 이번 CES에서 소개하는 AWAY 헤드유닛은 24:9 비율의 스플릿 뷰 기반으로 미디어 콘텐츠와 내비게이션 등 여러 기능을 동시에 확인할 수 있는 것이 특징이며, 현재 카셰어링 서비스 ‘그린카’ 차량에 탑재되어 있습니다. AHEAD, 3D AR HUD AHEAD는 차량용 3D AR HUD (head-up display)입니다. 기존 HUD는 디스플레이되는 가상의 이미지와 실제 도로 사이의 초점이 달라 운전자의 집중을 흐릴 수 있었습니다. AHEAD는 운전자의 시점에서 근거리에서 원거리까지 실제 도로에 융합된 정보를 제공하는 3D 광학 기술을 실현했습니다. 운전자는 AHEAD에 표시되는 이미지가 마치 도로 위에 존재하는 것처럼 자연스러운 시선으로 정보를 제공받을 수 있습니다. 리플릿 다운로드 ■ Robotics AMBIDEX, Robot Arm with Innovative Cable-Driven Mechanisms 사람과 공존할 수 있는 로보틱스 연구의 하나로 진행된 AMBIDEX는 와이어 구조의 혁신적인 동력 전달 매커니즘으로 사람과 안전하게 인터랙션 할 수 있는 로봇 팔입니다. 한 팔의 무게는 고작 2.6kg로, 이는 일반적인 성인 남성의 한 팔 무게보다 가볍습니다. 그럼에도 최대 3kg의 하중을 버티고, 최대 5m/s의 속도로 동작할 수 있습니다. 산업용 로봇 수준의 정밀한 제어가 가능하기 때문에 짐을 옮기는 아주 간단한 작업부터, 사람과의 정밀한 협업을 통해 복잡한 작업을 수행하는 것까지 다양한 활용이 가능합니다. 또한 5G네트워크의 low latency와 high throughput 성능을 이용하여 원격지에서도 무선으로 실시간 고속 제어가 가능하게 설계되어 있습니다. AIRCART, Human-Power Amplification Technology AIRCART는 근력증강 로보틱스 기술(robotics for human power augmentation)을 응용해 개발한 카트입니다. 이 기술은 단순해보이지만, 이를 일상 공간에서 누구나 쉽게 사용할 수 있는 도구에 적용해 상용화했다는 점이 중요합니다. AIRCART에는 pHRI (physical human-robot interaction) 기술이 적용되어 무거운 물체를 실어도 누구나 가볍게 운반할 수 있습니다. 운전자의 조작 의도를 손잡이의 힘 센서로 파악해 카트의 움직임을 제어하기 때문에, 따로 조작 방법을 배울 필요없이 쉽게 사용할 수 있습니다. 또한 사고가 발생하기 쉬운 비탈길에서도 자동 브레이크 시스템으로 안전하게 이동합니다. 현재 서점이나 도서관, 공장 등 활용처를 다양화하고 있습니다.

2019.01.07 NAVER LABS

DEVIEW 2018에서 'xDM platform' 발표 - 사람과 자율주행 머신을 위한 location & mobility intelligence

우리의 삶에는 여전히 풀지 못한 공간과 이동에 대한 문제들이 많이 남아있습니다. 네이버랩스에서 고민하는 것들입니다. 그 고민의 경과와 연구 성과들을 이번 DEVIEW 2018 키노트를 통해 공개했습니다.  "AI, not artificial intelligence, but ambient intelligence" 이번 키노트의 화두입니다. Ambient intelligence는 '상황과 환경을 인지하고 이해해, 필요한 정보나 액션을 적시에 자연스럽게 제공하는 기술'을 의미하며, 우리의 기술비전이기도 합니다. 이를 바탕으로 우리는 이번 DEVIEW를 통해 사람과 자율주행 머신을 위한 location과 mobility 통합 솔루션인 'xDM platform'을 공개했습니다. xDM은 'eXtended definition & dimension map'의 약자입니다. 그간 연구해 온 mapping, localization, navigation 관련 기술과 고정밀 데이터를 통합했습니다.  스마트폰과 자율주행 머신을 위한 실내외 3차원 고정밀 지도를 만들고, 지도를 자동 업데이트하는 기술을 구축합니다. 실내/실외/도로 등을 아우르며 음영 지역이 없는 정밀한 측위 기술, 그리고 실시간/실공간 데이터를 담고 맥락을 이해하는 이동 정보를 제공합니다. 이러한 기술들을 통합한 xDM platform은 크게 두 가지 패키지로 구성됩니다. 사람의 위치 인식과 실내외 길찾기 등을 위한 'Wayfinding', 그리고 차량과 로봇의 자율주행을 위한 'Autonomous mobility' platform입니다.  사람을 위한 Wayfinding platform Wayfinding은 사람들이 더욱 쉽고 빠르게 이동하기 위한 솔루션입니다. Location API를 통해 smart geofencing, mobility pattern analysis, personalized localization 등의 사용자 위치/이동에 대한 세밀한 정보를 제공합니다. 또한 도보/AR 내비게이션 API를 통해 POI 정보가 수시로 바뀌고 GPS가 통하지 않는 대규모 실내 공간에서 쉽고 빠르게 길을 안내합니다. 매핑 로봇 M1이 만든 3차원 실내 지도 위에서 visual & sensor-fusion localization 기술을 기반으로 별도의 인프라 구축 없이도 정확하게 위치를 인식하고, 지형지물을 통해 TBT (turn-by-turn) 정보를 제공하며, AR navigation API를 통해 더욱 직관적인 길 안내를 할 수 있습니다. 이번 키노트에서는 코엑스에서 테스트한 AR navigation 데모를 공개했으며, 프리미어 파트너사인 HERE와 인천공항공사와의 협력 계획도 함께 발표했습니다. 우리는 더 많은 파트너를 기다리고 있습니다. 실내 지도의 최신성을 자동으로 유지하는 SSIM (scalable & semantic indoor mapping)도 선보였습니다. 네이버랩스의 robotics, computer vision, visual localization, machine learning 등을 활용해 실내 지도 생성과 데이터 수집, 유지보수의 과정을 자동화하는 기술입니다. 현재는 실내를 자율주행하는 서비스 로봇이 POI의 변화를 자동으로 인식하고, 감지된 변경사항을 지도상에 자동으로 업데이트하는 POI change detection 단계에 집중하고 있습니다.향후 POI recognition, semantic mapping으로 확장될 예정이며, 같은 기술을 실외/도로에도 응용할 계획입니다. 스스로 이동하는 차와 로봇을 위한 Autonomous mobility platform 이제 이동을 위한 솔루션은 사람에게 한정되지 않습니다. 차는 물론 로봇을 위한 자율주행 기술도 곧 우리의 일상 속으로 파고들 것입니다. Autonomous mobility platform은 바로 자율주행 머신들을 위한 솔루션입니다. 이번 키노트에서는 자율주행차를 위한 새로운 HD맵 기술을 공개했습니다. HD맵은 자율주행차가 정확한 위치를 파악하고 최적화된 경로를 탐색하기 위해 필수적인 데이터입니다. 네이버랩스는 'Hybrid HD맵' 솔루션을 통해, 고정밀 항공사진에서 추출한 route network와 네이버랩스의 mobile mapping system인 'R1'으로 수집한 데이터 등을 유기적으로 결합하는 방식으로 도시 단위의 HD맵을 만듭니다. 각각의 2D/3D 데이터에서 매핑을 위한 feature들을 자동 추출하는 알고리즘을 적용해가고 있습니다.  또한 이 HD맵을 기반으로, 자율주행차량의 GPS 센서, IMU 센서, CAN 데이터, LIDAR 신호, 카메라 영상 등의 정보와 결합해 도심처럼 고층건물이 많아 GPS 신호가 좋지 않은 음영지역에서도 끊김없이 안정적이고 정확한 측위를 할 수 있는 솔루션도 함께 개발하고 있습니다. 더불어 퀄컴 및 만도와 Hybrid HD맵과 연계한 ADAS 기술 연구를 비롯한 다양한 자율주행 기술 협업을 병행하고 있습니다. ‘AROUND platform'은 자율주행 서비스 로봇의 대중화를 위한 솔루션입니다. M1으로 제작한 고정밀 3차원 지도와 클라우드 기반의 경로 탐색 알고리즘 기술 등을 바탕으로 로봇의 제작 단가는 낮추면서, 고품질의 자율주행 성능을 유지할 수 있게 해준다는 점이 특징입니다. 지도 생성, 위치 파악, 경로 생성, 장애물 회피 기능 등의 핵심 기능을 직접 수행해야 하는 기존 실내 자율주행 로봇과는 달리, 저가의 센서와 낮은 프로세싱 파워만을 가지고도 정확도 높은 실내 자율주행을 구현할 수 있습니다. 작년 YES24 서점용 AROUND의 공개 이후, 현재는 쇼핑몰이나 공항같은 대규모 실내 공간에서 길 안내 서비스를 제공하는 자율주행 가이드 로봇 'AROUND G'의 개발을 진행 중입니다. AROUND G에는 AR 내비게이션 API가 적용되어 더욱 직관적인 UX로 길 안내를 수행하게 됩니다.   미래가 아닌 현재의 생활환경지능 기술들 이번 키노트를 통해 네이버랩스의 광학 기술 연구 성과도 발표했습니다. 'AHEAD'는 3D AR HUD (head up display)입니다. 운전자의 초점에 맞춰 정보를 제공하는 3D 디스플레이 기술을 적용했습니다. 운전자가 보는 실제 도로와 디스플레이 시점이 동일하기 때문에, 자연스럽고 편리하게 위치 및 이동 정보를 접할 수 있습니다. 향후 xDM platform의 다양한 정보와 서비스가 AHEAD를 통해 운전자에게 자연스럽게 제공될 수 있습니다. 작년 공개했던 로봇팔 AMBIDEX 역시 삶 속에서 사람과 안전하게 인터랙션할 수 있도록 개발을 고도화하고 있습니다. AMBIDEX는 위치 제어 위주의 기존 로봇과는 달리 힘 제어가 중요하기 때문에 기구학 및 동역학 모델링을 위한 시뮬레이터를 개발했습니다. 실제 로봇을 구동하기 전에 시뮬레이터 테스트로 안정성을 높일 수 있을 뿐 아니라, deep reinforcement learning을 위한 다양한 환경 조건에서의 방대한 데이터를 빠르게 획득할 수도 있습니다. 네이버랩스는 기술과 도구가 삶에 자연스럽게 스며드는 세상을 바랍니다. 이번 DEVIEW 2018 키노트에서의 성과 공개와 xDM platform 발표도 같은 맥락입니다. 머무르고 이동하는 모든 공간에서 삶의 맥락을 이해하고, 이를 기반으로 하는 새로운 서비스와 도구로 발전시켜 나가고자 합니다. 사람이 기술을 이해하는 것이 아니라, 언제나 기술이 사람을 이해해야 합니다. 이를 위해 네이버랩스도 멈추지 않고 노력하며, 또한 지속적인 platform 공개를 통해 더 많은 파트너들과 기술을 나누고 함께 성장해 나가겠습니다. 제휴/제안 바로가기

2018.10.11 네이버랩스

IDEA 2018 4개 제품 파이널리스트 선정

IDEA 2018 (International Design Excellence Awards 2018)에서 네이버랩스의 AIRCART, M1, PLMM (personal last-mile mobility), AWAY 제품이 파이널리스트에 선정되었습니다. 1980년부터 시작된 IDEA는 미국 산업디자이너협회가 주관하는 국제 디자인 어워드로 독일의 iF, 레드닷과 함께 세계 3대 디자인상으로 꼽히며, 미국 내 주요 회사의 디자이너, 비주얼리스트와 같은 실무진 그리고 학계 저명인사들이 심사위원으로 참가해 주로 독창성, 예술성, 사업성 등의 기준으로 평가합니다. 네이버랩스가 출품한 매핑로봇 M1은 'commercial & industrial' 부문에서 레이저 스캔 영역을 극대화하는 기능성에 충실하면서도 균형감 있는 조형미로, 전동카트인 AIRCART는 'commercial & industrial' 부문에서 견고한 조형미와 운전자 사각지대를 최소화한 전면 디자인으로 안전성을 높인 점으로, PLMM는 'sports, leisure & recreation' 부문에서 기능적 역동성을 심미적으로 완성도 있게 표현해낸 디자인으로, AWAY 헤드유닛디스플레이는 'consumer technology' 부문에서 후면부까지 정제되면서도 완성도 높게 정리된 디자인으로 심사위원들로부터 각기 호평을 받았습니다.

2018.09.20 원충열

네이버랩스, 현대중공업지주와 로봇 사업 협력

2016년, 우리는 3차원 실내 정밀지도를 제작하는 로봇 M1을 처음 공개했습니다. 이어서 작년에는, M1이 제작한 3차원 지도와 map cloud를 기반으로 스스로 이동하며 서비스를 제공하는 로봇 AROUND를 시범 운영했습니다. 당시 발표한 AROUND의 개발 취지는 생활밀착형 서비스 로봇의 대중화입니다. 이를 위해 로봇 자율주행의 핵심 기능을 분산하여 제작 비용을 절감하는 솔루션도 함께 발표했습니다. 그리고 올해, 서비스 로봇 대중화의 마일스톤을 가속하기 위해 새로운 파트너십을 시작합니다. 우리는 국내 산업용 로봇 1위의 현대중공업지주와 생활밀착형 로봇 사업을 위해 공동 협력하기로 했습니다. 잘 알려진 바와 같이, 현대중공업지주 로봇사업부문은 국내 산업용 로봇 시장점유율 1위의 기술력과 양산 능력을 갖춘 곳입니다. 서비스 로봇의 안정적인 상용화를 위한 인프라와 비즈니스 노하우를 가졌으며, 또한 적극적인 의지를 가진 파트너이기도 합니다. AROUND가 양산을 위한 첫 대상이 될 것입니다. 기존 실내 자율주행 로봇들이 지도 생성, 위치 파악, 경로 생성, 장애물 회피 기능 등을 위해 높은 제작 비용이 필요했다면, AROUND는 저가의 센서와 낮은 프로세싱 파워만으로 정확도 높은 실내 자율주행 기능을 구현할 수 있습니다. 지도 생성은 매핑로봇 M1으로, 위치 파악과 경로 생성은 map cloud로 역할과 기능을 분산하는 방식입니다. 현대중공업지주와의 협력을 통해 기존 자율주행 로봇 제작비의 약 10분의1 수준으로 상용화가 가능할 것으로 예상하고 있습니다. 커스터마이징이 용이하기 때문에 공항, 대형쇼핑몰, 호텔 등에서 해당 공간과 사용자 특성에 따른 다양한 서비스를 제공하게 될 것입니다. 이후 네이버랩스는 로봇 제작을 위한 기술 연구개발, 시스템 및 응용소프트웨어 개발 등을 담당하게 되며, 현대중공업지주는 로봇분야 사업화 역량을 바탕으로 서비스 로봇의 영업에서부터 생산, 품질관리, 상호 로봇 개발 등을 수행하게 될 예정입니다. 네이버랩스의 생활환경지능 연구는 실제 삶의 공간에 스며드는 자연스럽고 유용한 서비스 제공을 목표로 합니다. 로보틱스 역시 마찬가지입니다. 먼 미래의 기술이 아닌 오늘의 제품과 서비스를 통해, 더 많은 사람들이 기술의 혜택을 누리길 바랍니다. 훌륭한 파트너와 함께 지속적으로 실현해 나가겠습니다. AROUND 쇼룸 바로가기

2018.05.28 Robotics

‘Red Dot Award 2018’ 프로덕트 디자인 부문 수상 - M1, 에어카트, 퍼스널 라스트마일 모빌리티, 웨이브

네이버랩스에서 개발한 M1, AIRCART, personal last-mile mobility가 독일 'Red Dot Award 2018'의 프로덕트 디자인 부문에서 수상했습니다. AIRCART와 personal last-mile mobility는 지난 'iF DESIGN AWARDS 2018'에 이어 연속 수상을 하였습니다. 실내를 자율주행하며 3차원 정밀 지도를 제작하는 로봇 'M1'은 레이저 스캔 영역을 극대화하면서도 균형감있는 조형미를 갖추었다는 점에 39명의 심사위원단의 호평을 받았습니다. 근력증강 웨어러블 로봇에 사용되는 pHRI (physical human-robot interaction) 기술을 적용한 AIRCART는 단단한 조형미와 운전자 사각지대를 최소화한 전면 디자인으로 안전성을 높인 점이 특징입니다. 4륜 밸런싱 전동보드인 personal last-mile mobility는 기능적 역동성을 심미적으로 완성도 높게 표현해낸 디자인이라는 평가를 받았습니다. 그 외에도, 네이버랩스 ID팀에서 프로덕트 디자인을 하고 인공지능 플랫폼 CLOVA가 탑재된 스피커 WAVE 역시 같은 부문에서 함께 수상했습니다. 정제되면서도 완성도 높은 디자인과 풍부한 빛의 표현을 통한 인터랙션을 높게 평가받았습니다. 네이버랩스는 생활환경지능을 연구하고, 이를 실생활에서 누릴 수 있는 제품과 서비스로 연결하고자 합니다. 사람들의 일상 속에 자연스럽게 녹아들면서도 제품의 본질을 잃지 않는 완성도 높은 디자인을 추구하는 것은 당연한 수순입니다. 앞으로도 심미성과 기능성이 조화롭게 융합되는 프로덕트 디자인에 투자와 노력을 지속하며, 높은 수준의 생활환경지능 서비스 경험을 만들어 가고자 합니다.

2018.04.09 네이버랩스

실내 자율주행 로봇 AROUND와 전동카트 AIRCART, YES24 서점에서 첫 시동

실내 자율주행 로봇 서비스의 대중화를 위한 AROUND 네이버랩스 Robotics 팀은 작년 DEVIEW 2016에서 고정밀 실내지도 제작 로봇 M1을 공개한 바 있습니다. 사실 M1은 예고편이었습니다. 본편은 올해 DEVIEW에서 공개한 AROUND입니다. AROUND는 실내 자율주행 서비스 로봇의 대중화라는 목표로 제작되었습니다. 그간 수많은 자율주행 로봇들이 개발되었지만 여전히 일상에서 대중화되지 못하는 이유를, 우리는 로봇의 높은 제작 비용으로 봤습니다. 로봇의 제작 단가를 낮출 수 있다면, 더 다양한 공간과 상황에서 실내 자율주행 로봇 서비스를 경험할 수 있게 될 것입니다. 이를 위해 우리는 지난해부터 새로운 솔루션을 준비해왔습니다. 솔루션의 핵심은, 자율주행 로봇 제작 비용에 상당 비중을 차지하던 핵심 기능들을 분산시키는 것입니다. 기존에는 지도 생성, 위치 파악, 경로 생성, 장애물 회피 등 자율주행에 요구되는 기능들을 로봇 자체에서 모두 직접 수행해야 했습니다. 네이버랩스는 이를 AROUND, M1, 그리고 map cloud로 분산시키는 시도를 했습니다. 지도 생성은 사전에 M1이, 위치 파악과 경로 생성은 map cloud가 역할을 대신하기 때문에, AROUND 본체에서는 저가의 센서와 낮은 프로세싱 파워로 장애물 회피 등의 기본적인 기능만 갖추고도 정확도 높은 자율주행을 할 수 있게 됩니다. 이러한 솔루션을 바탕으로 로봇의 제작 비용을 큰 폭으로 낮출 수 있기 때문에, 사람들의 삶 가까이에서 도움을 제공할 수 있는 실내 자율주행 서비스 로봇의 대량 보급이 가능해집니다. 또한, 공간의 특성이나 목적에 맞는 형태의 로봇으로 쉽게 커스터마이징하여 설계/제작할 수 있기 때문에, 다양한 방식과 형태의 서비스를 제공할 수 있습니다. 문제를 해결하고, 경험을 변화시키며, 문화를 만들어내는 기술 AROUND는 부산의 복합 공간 F1963에 위치한 YES24 서점에서 첫 시동을 겁니다. 이곳에서 AROUND는 고객들이 다 읽은 책을 상단부의 적재공간에 넣어 수거하고 일정 무게가 넘어가면 자동으로 지정된 장소로 이동하여 직원이 책을 회수하는 시나리오에 맞춰 제작되었습니다. 이는 실제로 서점 직원들이 가장 힘들어 하는 부분을 해결해줍니다. 서점 책장에 꽂힌 책들은 위치가 모두 전산화되어 있기 때문에, 단 한 권이 잘못된 위치에 꽂히더라도 직원들은 근처의 책들까지 일일이 살펴봐야 했기 때문입니다. AROUND는 이러한 노동력을 크게 절감시킵니다. 또한 AROUND는 서점을 찾은 고객들의 경험도 변화시킵니다. 책을 진열하는 공간과 읽는 공간을 AROUND가 연결해주기 때문입니다. 독자는 책장에서 한 권씩 책을 뽑아 선 채로 살펴보지 않아도 됩니다. 여러 권을 뽑아 편한 테이블에서 충분히 살펴본 후 AROUND에 맡기면 됩니다. 이렇듯 AROUND에 적용된 생활환경지능은 사용자의 경험, 그리고 공간이 지닌 문화적 특성에 자연스럽게 녹아들어 새로운 가치를 만들 수 있도록 설계되었습니다. 근력증강 웨어러블 로봇 기술 적용된 AIRCART 이번 YES24 서점에는 AROUND 외에 네이버랩스 제품이 하나 더 공개됩니다. 입고되는 수많은 책들을 안전하고 쉽게 운반할 수 있도록 도와줄 전동카트입니다. 모터가 자동으로 힘을 증강하여 아무리 무거운 물체를 실어도 미끄러운 빙판 위를 이동하듯 가볍게 움직일 수 있기 때문에 AIRCART라고 이름을 지었습니다. 힘이 부족한 사람도 가볍게 오르막길을 오를 수 있고, 사고가 발생하기 쉬운 내리막길에서도 자동 브레이크 시스템으로 안전하게 이동할 수 있습니다. 역시 많은 사람들이 오가는 서점이라는 공간에 맞게 충돌 방지, 특히 어린이 고객 안전을 위해 카트 이용자가 앞쪽 시야를 충분히 확보할 수 있도록 설계했으며, 평균적으로 1회에 옮기는 도서 수량에 맞추고 책이 쏟아지지 않도록 적재 선반을 안쪽으로 비스듬하게 설계했습니다. AIRCART에는 근력증강 웨어러블 로봇에 사용하는 physical human-robot interaction (pHRI) 기술이 적용되어 있습니다. 운전자의 조작 의도를 카트 손잡이에 달린 힘센서에서 파악해 실시간으로 카트의 움직임(추진력과 방향)을 제어하기 때문에, 누구든 따로 조작 방법을 배울 필요없이 직관적인 사용이 가능합니다. 네이버랩스는 space & mobility 연구를 통해 실제 삶의 공간에 스며드는 자연스럽고 유용한 서비스 제공을 목표로 합니다. 로봇 연구도 역시 마찬가지입니다. 손에 잡히지 않을듯한 먼 미래의 청사진이 아니라 바로 오늘, 누구나 일상에서 경험할 수 있는 기술과 제품 및 서비스를 고민합니다. 사용자 경험에 자연스럽게 녹아들고, 단지 편의에 국한되는 것이 아니라 삶의 가치와 문화로 이어질 수 있는 기술을 완성하려고 합니다. 실내 자율주행 서비스 로봇 AROUND와 근력증강 웨어러블 로봇 기술을 응용한 AIRCART 역시 같은 목적으로 개발되었습니다. 앞으로도 네이버랩스 Robotics 팀은 생활환경지능 기반의 새로운 서비스와 제품들을 더 많은 사람들이 일상에서 누릴 수 있도록 다양한 파트너 및 사업자들과 함께 협업을 지속해 나갈 것입니다. AROUND 쇼룸 바로가기    

2017.10.16 Robotics

네이버랩스, DEVIEW 2017 통해 location & mobility 관련 연구 성과 공개

DEVIEW 2017 키노트에서 네이버랩스의 생활환경지능 제품과 연구 성과들을 공개했습니다. 생활환경지능은 생활에서 사람과 상황/환경을 인지/이해하여 적시에 자연스럽게 필요한 정보나 액션을 제공해주는 기술을 의미합니다. 송창현 네이버랩스 CEO 겸 네이버 CTO는 키노트를 통해 ‘도구와 정보들이 넘치는 세상에서, 기술은 사람과 생활환경을 더 잘 이해해야 한다. 기술의 진정한 가치는 기술이 생활 속으로 사라졌을 때 나온다.’는 말로 생활환경지능 연구의 이유를 재차 강조했습니다. 작년 DEVIEW에서 발표했던 생활환경지능 기반 CLOVA (작년 발표 시 명칭은 AMICA), PAPAGO, WHALE 등의 진행 성과 발표에 이어, 올해 네이버랩스의 연구 및 개발 성과들을 함께 공개하였습니다. 핵심은 'location과 mobility 연구를 통해 일상으로 확장되는 생활환경지능’입니다. 1. Location intelligence 자율주행 로봇 서비스의 대중화를 위한 M1, map cloud & AROUND 먼저 DEVIEW 2016에서 공개한 바 있는 매핑로봇 M1은, 에피폴라의 기술이 적용된 개선 버전을 통해 만든 COEX/롯데월드몰 실내공간의 3차원 포인트 클라우드를 공개했습니다. 이 데이터는 고정밀 3차원 실내지도 제작에 활용될 예정입니다. M1이 작년 공개한 예고편이었다면, 본편은 이번 DEVIEW를 통해 공개한 실내 자율주행 서비스 로봇 AROUND입니다. AROUND는 실내 자율주행 로봇의 대중화를 위한 시도입니다. 그 동안 수많은 자율주행 로봇들이 공개되었지만, 지도 생성, 위치 파악, 경로 생성, 장애물 회피 등 자율주행에 요구되는 기능들을 로봇 자체에서 모두 직접 수행해야 했기 때문에 제작비용이 높다는 단점이 있었습니다. 네이버랩스에서는 지도 생성은 사전에 M1이, 위치 파악과 경로 생성은 map cloud가 역할을 대신하여, AROUND 본체에서는 저가의 센서와 낮은 프로세싱 파워로 장애물 회피 등의 기본적인 기능만 갖추고도 정확도 높은 자율주행을 할 수 있는 솔루션을 개발했습니다. 이러한 솔루션을 바탕으로 로봇의 제작 비용을 큰 폭으로 낮출 수 있기 때문에, 사람들의 삶 가까이에서 도움을 제공할 수 있는 실내 자율주행 서비스 로봇의 대량 보급이 가능해집니다. 또한, 공간의 특성이나 목적에 맞는 형태의 로봇으로 쉽게 커스터마이징하여 설계/제작할 수 있기 때문에, 향후 다양한 방식과 형태의 서비스를 제공할 수 있을 것으로 기대하고 있습니다. AROUND는 부산의 복합 공간 F1963에 위치한 YES24 오프라인 서점에서 직원과 고객들에게 도움을 주며 실제 사용됩니다. 위치측위에 특화된 생활환경지능 디바이스 AKI 이어서 위치측위에 특화된 생활환경지능 디바이스 'AKI'를 공개했습니다. AKI는 초등학교 저학년 아이와 부모 사이에서 비롯되는 관계에 주목합니다. 부모와 아이의 공간/위치에 따른 상황을 이해해, 필요한 정보와 서비스를 적시에 제공할 수 있도록 제작되었습니다. AKI는 실내에서도 정확한 위치를 제공하는 자체 WPS DB, 행동을 인지하여 자동으로 조절되는 저전력 위치 탐지, 그리고 위치 개인화(personalized Wi-Fi fingerprinting) 등의 정확한 위치측위 관련 기술이 적용되었습니다. 아이의 location을 정확히 파악하고, 아이의 이동중인 상황을 인지(activity detector, move classifier)하고, 아이가 반복적으로 방문하고 머무는 장소/시간/상황을 분석해 아이의 생활 패턴을 학습하여, 이동 상태 확인이나 비정상 알림과 같이 부모가 아이에 대해 알고 싶은 정보들을 적시에 제공할 수 있도록 설계하였습니다. AKI는 향후 일반 고객들이 직접 구매하고 사용할 수 있도록 출시될 예정입니다. 2. Mobility intelligence 세계 최초 4륜 밸런싱 전동 스케이트보드 다양한 이동성 관련 프로젝트를 진행중인 Robotics 팀은 personal last-mile mobility 연구 과제 중 하나로 개발중인 세계 최초로 4륜 밸런싱 기술이 적용된 전동 스케이트보드를 소개했습니다. 이 보드는 사람이 단순히 몸을 기울이는 것만으로 가속, 감속, 방향 전환이 모두 가능하며, 4륜 지지 구조를 갖추고 있어 안정성이 높고, 40km/hr 이상으로 고속 주행할 수 있습니다. 두 개의 기울기센서를 이용해 1초에 1000번 기울기를 측정하여 무게중심을 항상 제어하기 때문에 급격한 가감속시에도 안정적이며 경사로 주행도 가능합니다. 근력증강 웨어러블 로봇 기술 응용한 AIRCART AIRCART는 우리와 가장 가까운 일상의 공간에서 노동의 어려움을 덜어주기 위해 시작된 프로젝트입니다. 근력증강 웨어러블 로봇에 사용되는 physical human-robot interaction (pHRI) 기술이 적용되었습니다. 운전자의 조작 의도를 카트 손잡이에 달린 힘센서에서 파악해 실시간으로 카트의 움직임(추진력과 방향)을 제어하기 때문에, 누구든 따로 조작 방법을 배울 필요없이 직관적인 사용이 가능한 것이 특징입니다. 특히 더 위험할 수 있는 내리막길에서도 자동 브레이크 시스템으로 안전하게 이동할 수 있습니다. AIRCART는 AROUND와 함께 YES24 오프라인 서점에서 실제 사용됩니다. AWAY, 단말 제조용 툴킷 및 extensions 계획 이동 및 차량에 필요한 정보를 자연스럽게 연결하고, 안전하고 즐겁게 미디어와 컨텐츠를 즐기기 위한 in-vehicle infotainment 플랫폼 'AWAY'는 서비스/콘텐츠 제공사 및 단말을 위해 제공될 툴킷 공개 계획을 밝혔습니다, 내년 오픈 플랫폼으로서의 지원이 본격화될 것이며, 별도의 애프터마켓 제품도 출시 예정입니다. 자율주행차, 연내 도심지에서 SAE 4단계 달성 목표 자율주행차 연구는 도심 내 GPS 음영지역에서도 자율주행이 가능하도록 차선 기반 자기 위치 인식 연구를 강화하고 있으며, KAIST와 산학협력으로 대단위 도심 지역에서 빠르고 정확하게 도로와 표지판 정보 등을 자동으로 추출하는 연구도 착수했습니다. 특히 이번 DEVIEW 키노트를 통해서는 도심의 도로 환경에 실제 자율주행 중인 연구 영상을 공개하며, 2017년 말까지 도심지에서의 SAE 4단계 달성을 목표로 연구에 매진하고 있음을 밝혔습니다. 3. 생활환경지능의 중장기 구현을 위한 산학협력 계단을 비롯한 다양한 생활환경에서의 이동성 연구 이번 키노트의 로보틱스 발표에는 생활환경지능 연구의 중장기 과제 해결을 위한 다양한 산학협력의 결과들도 함께 공개하였습니다. 네이버랩스에서는 사람들이 살아가는 공간에서 실제 도움을 주는 로봇 개발을 목표로 하며, 이를 위해서는 일상 공간에서 자유롭게 움직일 수 있는 이동성, 삶의 맥락을 이해할 수 있는 인공지능, 그리고 다양한 노동력과 서비스를 제공할 팔과 손이 필수적입니다. 이를 위한 연구는 네이버랩스 자체적으로 진행되는 동시에 각 대학과의 협력을 통해서도 함께 진행중입니다. MIT와 협력 중인 Cheetah 3, UIUC와 협력 중인 Jumping robot은 생활 환경 내에서 계단과 같은 단차를 극복하며 자연스럽게 이동할 수 있는 다리 로봇 개발을 위한 장기 산학 연구 과제로 진행 중입니다. 마찬가지의 목적으로 계단을 올라가는 바퀴 달린 로봇 터스크봇(Tuskbot), 물체 인식 및 자율주행하는 TT-bot이 네이버랩스의 인턴 프로젝트로 함께 소개되었습니다. 일상으로 팔을 뻗는 로봇팔 AMBIDEX AMBIDEX는 실생활에서 사람과 자연스럽게 인터렉션하며 다양한 노동력과 서비스를 제공하기 위한 목적으로 네이버랩스와 코리아텍이 장기 산학 연구 중인 로봇팔입니다. 로봇팔은 로보틱스 연구 중에서도 특히 역사가 깊지만 주로 산업 현장에서 정밀/반복/고하중 작업에 적합한 형태로 발전되었기 때문에, 무게, 안전 등의 문제로 일상의 영역에 적용되기는 어려웠습니다. 네이버랩스는 로봇팔을 일상의 영역으로 활용범위를 확대하기 위해 하드웨어/제어/인식/지능 등에 대해 연구하며 세계 최고 수준의 로봇팔 메커니즘 설계능력을 갖춘 코리아텍의 김용재 교수와 산학협력을 통해 사람의 팔보다도 가볍고, 사람과의 접촉에서도 안전한 AMBIDEX를 제작하여 공개했습니다. AMBIDEX는 팔의 경량화를 위해서 무거운 구동기는 모두 어깨와 몸체 부분에 배치하고, 와이어를 이용해서 가벼운 팔을 구동하는 독창적인 와이어 구조를 가지고 있으며, 모든 관절에 강도/강성을 증폭하는 혁신적인 동력 전달 메커니즘을 적용해, 기존 산업용 로봇과 유사한 수준의 제어 성능과 정밀도를 갖췄습니다. AMBIDEX는 로봇이 실제로 사람들에게 도움을 되는 노동력을 제공하고자 할 때, 안전하고 유연하면서도 정밀한 작업이 가능한 로봇 하드웨어로서 새로운 솔루션이 될 것입니다. 이번 키노트를 통해서 발표된 네이버랩스의 각 연구 경과와 성과들은 모두 생활환경지능이라는 비전하에 전개되고 있습니다. 먼 미래의 것처럼 느껴지는 손에 잡히지 않는 기술이 아니라, 실제 생활환경에서의 location과 mobility 연구를 통해 일상에서 직접 혜택을 누릴 수 있는 기술과 제품, 서비스를 연구하고자 합니다. 이를 통해 네이버랩스가 바라는 미래상은 사람들과 사회가 도구에 얽매이지 않고 인생에서 더 중요한 일에 몰입할 수 있는 세상입니다.

2017.10.16 원충열 / PDX

네이버랩스는 어떻게 M1을 지도 로봇으로 만들었나

3D indoor mapping robot - M1 판사가 판결로, 기자가 기사로 말한다면 연구자는 자신이 만든 성과물을 통해 세상과 대화를 시도한다. 네이버랩스 최초의 로봇 M1을 만든 Robotics팀은 최근 일반 대중들에게 가장 활발히 말을 건네고 있는 로봇 연구집단 중 하나다. 우선 지난해 10월에 열렸던 DEVIEW 2016에서 3차원 실내 정밀 지도 제작 로봇인 'M1'을 선보였다. 자율 주행하는 로봇을 이용해 지금까지는 없었던 대규모 실내 공간 데이터를 만들고 사람들의 생활을 더욱 편리하게 만드는 서비스 플랫폼을 만들겠다는 취지에서였다. 올해 3월 서울모터쇼에서는 M1이 네이버 라이브러리를 돌며 실내 지도를 제작하는 과정을 담은 영상을 공개했다. 모터쇼 행사장에서는 관람객들 앞에서 자율 주행 mapping 현장 시연을 하기도 했다. 5분 간격으로 하루 8시간의 시연 일정을 열흘 동안 소화하는 강행군이었다. 그동안 연구원들이 M1 뒤를 따라붙으며 어느 공간에서도 제 능력을 발휘할 수 있도록 실시간으로 오류를 수정하고 문제점들을 개선해냈기에 가능했던 성과들이다. M1이 세상에 나온 지도 8개월이 지났다. 어떤 시간은 그냥 흘러가버리지 않고 쌓인다. 이 로봇과 로봇을 만든 연구원들에게는 무엇이 쌓였을까? 이 질문에 대한 답을 듣기 위해 지난 15일 Robotics 팀원들과 만났다. Robotics 연구원들이 M1을 이용해 네이버 라이브러리 실내 지도를 만들기 앞서 대화를 나누고 있다. Q. M1과 관련된 여러 가지 에피소드 중 가장 놀라웠던 건 이 로봇을 두 달만에 만들었다는 것이었어요. (Robotics) 네이버랩스의 첫 로봇을 어떤 콘셉트로 만들까를 놓고 상당히 오랜 기간 회의를 거쳤습니다. 세상에 어떤 로봇이 필요할지, 우리가 뭘 보여줘야 할지를 놓고 때로는 연구원들 사이에 격론이 오가기도 했죠. 그렇게 회사 차원의 결정을 하고 보니 지난해 DEVIEW까지 남은 기간이 두 달 정도였어요. 그래서 모든 팀원이 달라붙어서 정신없이 만들었죠.(웃음) Q. 이 정도 로봇은 원래 두 달만에 만들곤 하나요? (Robotics) 아뇨. 그렇게 쉬운 사양은 아니죠. 제한된 공간에 다양한 기능을 구현하기 위해서 꽤 많은 부품을 직접 만들어서 써야 했거든요. Robotics팀이 보통의 로봇 연구실과는 다른, 좀 독특한 구성입니다. 재료 가공부터, 기구설계, 조립, 회로설계, 제어, AI까지 로봇 만드는 모든 파트의 전문가들이 모여 있거든요. 두 달만에 로봇을 완성시킬 수 있었던 이유가 거기에 있지요. 그래서 만드는 건 비교적 어렵지 않았는데 실제 필드에 나가서 최적화를 하는 과정에서 에피소드가 많았습니다. Q. 어떤 에피소드가 있었나요? (Robotics) 로봇 연구자들에게는 익숙한 일들인데, 로봇이라는 게 어떤 환경에 놓이느냐에 따라서 여러 가지 돌발 상황이 벌어집니다. 개발 초기에 나타나는 가장 흔한 오작동은 잘 되다가 갑자기 로봇이 안 움직이는 거죠. 한 번은 서울 삼성동에 있는 코엑스에서 작업을 하는데 M1이 갑자기 움직이지 않는 일이 있었어요. 그래서 한참 원인을 찾아보니 구동 모터에 전원을 공급하는 선이 모터 사이에 살짝 집혀 있었죠. 그래서 저희는 M1이 좀 심하게 움직여도 이런 일이 발생하지 않도록 내부 구조를 바꿨죠, 만드는 걸로 끝나는 게 아니라 그때부터 문제-해결, 문제-해결의 연속이에요. 그러면서 좋은 로봇이 만들어지는 거죠. Q. 인상 깊었던 에피소드를 하나 더 소개한다면? (Robotics) M1은 덩치가 좀 있어서 1.2kg 짜리 배터리 두 개를 씁니다. 밖에서 작업을 하는 로봇이다 보니 야외에서 배터리를 갈아야 할 경우가 생기는데 그때마다 케이스를 벗겨낼 수가 없잖아요. 처음 버전에서는 이걸 생각을 못했는데, 나중에 바닥 부위에 있는 배터리를 원터치로 교체할 수 있도록 설계를 바꿨어요. 터치 부위를 누르면 식당에서 음식 접시 서빙하듯 배터리가 부드럽게 사용자 앞으로 나옵니다. 이 과정을 고민한 덕분에 관련 특허도 하나 출원했죠.(웃음) 사소한 개선 사항들은 정말 다양합니다. 무선랜 감도가 잘 나오는 위치를 찾으려고 로봇 곳곳에 붙여본다던가, 아직 시험해보지 않은 센서들을 교체해가며 어떤 게 좋은 데이터를 뽑는지 비교해본다던가 하는 작업들을 통해 최적화된 답을 찾아가고 있습니다. Q. 어떻게 보면 지금 하는 이야기들이 일종의 시행착오, 내지는 실수담이라고 볼 수도 있을 텐데요. 바로 솔직한 답변이 나오는 게 다소 이색적으로 느껴지기도 합니다. (Robotics) 초기 M1의 콘셉트는 넓고 광활한 실내공간의 mapping을 하는 로봇이었어요. 그래서 저희는 일단 거기에 집중해서 콘셉트에 적합한 로봇을 잘 만들었고, 그 뒤로는 다양한 필드 테스트(field test)를 통해 어디서나 실내 지도를 잘 만들 수 있는 로봇 쪽으로 개선해가고 있습니다. 위의 에피소드들은 자연스러운 과정인 셈이죠. 원래 네이버랩스에서 선호하는 문제 해결 방식도 일단 일정 수준의 결과물을 만들어놓고 거기서 전문가들의 협업을 통해 빠르게 완성도를 높이는 거예요. 변수와 난관은 어디나 있는 것이고 그걸 불필요하게 의식하기보다는 효율적으로 신속하게 해결하는 게 중요하죠. 연구원이 M1이 무선으로 보내온 영상을 확인하고 있다. Q. 그러고 보니 네이버 라이브러리는 M1이 초기에 다녔던 곳들과는 달리 여러 개의 서가들로 구성된 좁은 공간인데요. 그곳에서의 작업은 어땠나요? (Robotics) 서울모터쇼 때 나갔던 영상을 네이버 라이브러리에서 촬영했었는데요, 처음에는 도서관의 특수한 공간 형태 때문에 시행착오를 겪었습니다. 로봇이 자율 주행 시 장애물로부터 안전거리를 확보하며 주행하도록 되어 있는데, 도서관의 경우 통로의 폭이 매우 좁고 책꽂이 부분에 요철이 있는 데다가 군데군데 책이 안 꽂힌 부분은 공간이 뚫려있어 기존의 자율 주행 알고리즘을 적용하는데 애로사항이 있었습니다. 그전까지는 M1으로 이처럼 특수한 형태의 공간에서의 테스트를 수행해보지 못했었거든요. 도서관 통로가 좁아서 발생했던 또 하나의 문제는 구조물 인식이 잘 안된다는 점이었습니다. M1이 3차원 실내 지도를 만들 때 사용하는 LiDAR (Light Detection And Ranging) 센서는 최단 측정거리가 1m 정도이고 이보다 가까운 물체는 감지가 되지 않기 때문에 좁은 통로에서는 사각이 많이 발생하는 문제가 있었습니다. 그래서 초기에는 고생을 좀 했지만 현장에 있던 연구원들이 결국에는 이런 문제들을 해결하고 자율 주행으로 실내 지도를 잘 만들어냈죠. Q. 처음 M1이 공개되고 로봇 관련 업계에서는 '의외로 깜짝 놀랄만한 최신 기술은 없었다'는 평이 나오기도 했습니다. (Robotics) 맞는 얘기입니다. M1에 적용된 기술들은 로봇 만드는 사람들 사이에서는 잘 알려져 있는 기술들이에요. 그러나 그건 별로 중요한 지적은 아니라고 생각합니다. 저희는 사람들의 실생활에 도움을 주는 로봇을 만들려고 한 것이지, 무슨 최신 로봇 기술을 과시하려는 목적으로 M1을 만든 게 아니기 때문입니다. Q. 그럼 기업에서 로봇을 만들 때는 어떤 점이 가장 중요할까요? (Robotics) '무슨 목적으로 만드는 로봇인가'라는 물음에 충분하고 만족스러운 대답을 할 수 있어야 합니다. 저희가 첫 로봇을 무엇으로 할 건지 얘기하다가 결국 M1으로 결론이 모아졌던 이유도 거기에 있거든요. 목적과 취지가 뚜렷한 로봇을 만든다는 것은 결국 사용자를 항상 고려한다는 의미이기도 합니다. 그런 측면에서 M1은 실내 공간 정밀 데이터화라는 취지에 맞는 기술들이 안정적으로 잘 조합된 실용성 높은 로봇이라고 자신 있게 말할 수 있습니다. Q. M1 개발 과정에서 혹시 이전과 달라진 점이 있다면요? (Robotics) 로봇 디자인이 중요하다는 점을 새삼 깨닫게 됐습니다. 이전에 대학 연구실 같은 곳에서 로봇을 만들 때는 거의 알맹이에만 신경을 썼어요. 반면 이번에는 초반부터 PDX 그룹의 디자이너들과 함께 작업을 했습니다. 외형 디자인이 사실 로봇 설계에는 강력한 제약조건으로 작용하기 때문에 처음에는 스트레스를 좀 받았는데 다 만들어놓고 보니 예쁘더라고요.(웃음) 결국 M1은 사람들이 생활하는 영역 속으로 들어가야 하잖아요. 저는 사람들에게 호감을 주는 디자인 덕분에 이 로봇이 더 살았다고 생각합니다. Q. 앞으로 M1은 어떻게 더 진화하게 될까요? (Robotics) M1의 최종 목표는 어느 공간에 갖다 놔도 버튼 한 번만 누르면 알아서 돌아다니며 정밀한 3D 실내 지도를 만들어내는 로봇이 되는 것입니다. 저희는 반복적인 최적화를 통해 그 방향으로의 연구를 계속해갈 예정입니다. mapping 로봇 M1의 네이버 라이브러리 실내 지도 제작 과정

2017.06.21 김동환 / PDX

네이버랩스, 2017 서울모터쇼 현장 스케치

킨텍스에서 진행된 '2017 서울모터쇼'가 지난 4월 9일 막을 내렸다. 이번 모터쇼에서 자율주행차, 3차원 실내 정밀지도 제작 로봇 'M1', IVI (in-vehicle infotainment) 플랫폼과 헤드유닛 디스플레이를 공개했던 네이버랩스 역시 전시와 시연을 성공리에 마쳤다. 로봇 M1이 현장에서 자율주행하며 지도 제작 과정을 시연하고, 자율주행차의 라이다(LIDAR)를 통한 인지 기술을 직접 볼 수 있도록 전시하는 등, 어렵게 느껴질 수 있는 생활환경지능 기술을 일반 관람객들도 흥미롭게 체험할 수 있도록 했다. 특히 직접 기기를 체험할 수 있도록 공개한 IVI 헤드유닛 디스플레이 역시 많은 관심을 받았다. 현장에서 만난 관람객들은 대체로 모터쇼에 등장한 네이버가 새롭다는 반응으로, 흥미롭게 부스를 둘러보고 있었다. "모터쇼에서 네이버를 보게 될 줄 몰랐다. 생각보다 스케일이 커서 놀랬고, 막연히 네이버에 갖고있던 인상도 더 좋아졌다." (대학생 김정O) "국내 기업에서 자율주행이나 로봇 같은 미래기술을 연구하고 있다고 해서 놀랐다. 좀 더 한국 현실에 맞는 서비스를 쓸 수 있을 것 같아서 기대된다." (회사원 최재O) 익숙한 자동차 업체들 사이에서 유난히 더 눈에 띄었던 네이버랩스 부스. 어떤 것들이 준비되었고, 실제 현장 분위기는 어땠을까? 10일간 쉬지않고 달려왔던 이들에게 직접 들어보았다. Autonomous Driving : 자율주행차 전시와 라이다(LIDAR) 실시간 탐지기술 시연 "이번 모터쇼에서는 실제 자율주행 차량의 라이다 (LIDAR) 센서를 통해 데이터를 실시간으로 처리하여 이동하는 물체를 탐지하는 시연을 진행했는데요. 차량 위쪽 4면 디스플레이를 통해 주변 환경을 어떻게 인지하고 있는지 일반 관람객들이 한 눈에 보고 이해할 수 있도록 전시했습니다. 이번 전시를 통해 일반 대중들과 다양한 업계의 파트너들에게 우리의 자율주행 기술 수준과 비전을 효과적으로 전달하는 계기가 되었다고 생각합니다. 사람들의 삶을 크게 바꿀 수 있는 기술이기 때문에 많은 이들이 큰 기대와 관심을 가지고 있다는 것을 현장에서 다시 확인할 수 있었습니다. 그러한 기대가 현실이 되는 시점을 앞당기기 위해 연구와 개발에 더욱 집중하려고 합니다." - Mobility 백종윤 In-Vehicle Infotainment : 헤드유닛 디스플레이에서 경험하는 IVI 플랫폼 "현장에서는 네이버랩스의 IVI 플랫폼을 직접 경험해볼 수 있도록 '자체 제작'한 헤드유닛 디스플레이를 준비했습니다. (자체 제작했다는 걸 뒤늦게 알게 되시는 분도 많으시더라고요.) 많은 분들이 음성인식이나 오디오 콘텐츠를 직접 체험해보며 신기해하셨습니다. 자율주행차 보러 왔다가 IVI까지 준비되고 있어서 놀랍다는 반응도 있었습니다. 내부적으로는 7월 출시 예정인 제품을 중간에 선보이기 위해 바쁘고 지치는 시간을 보내기도 했지만, 부스에 방문하신 분들의 많은 관심과 다양한 의견은 분명 큰 힘이 되었습니다. 이번 첫걸음을 통해 현장에서 듣고 목격했던 반응들을 토대로, 더 나은 '운전과 이동의 경험'을 위한 연구를 지속하려고 합니다." - IVI 이창희 Autonomous 3D Indoor Mapping Robot : 3차원 정밀지도 기술을 시연한 로봇 M1 "로봇의 귀여운 외모 덕분에 현장에서 어린아이들의 사랑을 많이 받은 것 같습니다. 선배 연구자로서 찾아와 응원해주셨던 데니스홍 교수님께도 고마웠습니다. 부스에 찾아와 한 시간 넘게 설명을 듣고 아낌없는 조언과 칭찬을 해주셨을 뿐 아니라, 본인의 SNS를 통해 저희가 한 일에 대해 큰 응원을 보내주시기도 했습니다. 사실 이번에 Robotics 팀은 수많은 기자 앞에서, 그리고 그보다 많은 관람객들에게 M1이 자율주행 기반으로 지도를 만드는 것을 실시간으로 시연하는 막중한 임무를 가지고 있었습니다. 완벽한 시연을 위한 준비 과정에도 에피소드가 많았고, 현장은 긴장의 연속이었지만 결국 M1은 전시 기간 중 하루 8시간, 5분 간격으로, 무려 열흘간의 중노동을 고장 없이 성공적으로 수행했습니다. 팀원들의 열정이 없었다면 힘들었을 것입니다. 작년 DEVIEW에 이어 평생 잊지 못할 또 한 번의 좋은 기억이 되었을 것이라 생각합니다." - Robotics 석상옥

2017.04.12 장혜원 / PDX

[서울모터쇼] 송창현 네이버랩스 CEO 프레스데이 키노트

지난 3월 30일, 네이버랩스 송창현 CEO는 2017 서울모터쇼 프레스데이에서 자사의 비전과 기술을 발표했다. 자리를 가득 채운 기자들 앞에서 진행된 키노트 중 자율주행 연구가 미래 이동성과 교통시스템 개선 및 도로 환경의 실시간 정보화를 목표로 한다는 것, 새로 발표한 IVI 플랫폼의 오픈 계획, 네이버랩스가 추구하는 space & mobility 기술의 대표적인 결과물인 3D indoor mapping robot 'M1'의 라이브 시연 등이 특히 관심을 끄는 대목이었지만, 결국 키노트 전체를 관통하는 핵심적인 메시지는 다음과 같다. "이제 사람이 도구와 기술을 배우고 이해할 때는 끝났다. 기술이 사람과 생활환경을 이해해야 한다. 기술의 진정한 가치는 기술이 생활 속으로 사라졌을 때 나온다." 이것이 바로 생활환경지능이라는 기술 비전이 제시된 이유이며, 현재 네이버랩스가 실제 사람들의 삶이 펼쳐지는 space에 대한 이해, 그리고 그 공간과 공간 사이를 연결해주는 mobility의 지능화에 집중하는 이유라는 맥락이다. 송창현 CEO는 M1이나 자율주행차, 그리고 새롭게 공개하는 IVI 플랫폼이 각자 다른 목표를 추구하는 것이 아니라 모두 같은 맥락으로 전개되는 연구 결과들이며, 이를 통해 온라인을 넘어 실생활에서 상황과 환경을 인지하고, 사람들이 필요한 정보를 예측해 적시적소에 제공할 수 있는 기술과 서비스들을 다양한 파트너들과 함께 고도화할 것이라고 강조했다. <2017 서울모터쇼 네이버랩스 송창현 CEO 키노트 전체 영상> 키노트가 끝난 이후, 송창현 CEO는 부스 내에서 언론사 기자들과의 별도 Q&A 시간을 가졌다. 다음은 진행되었던 질문과 답변에 대한 요약 내용이다. Q. 발표를 통해 자율주행차 연구가 자동차 비즈니스를 위한 것이 아니라고 했다. 그간에는 카쉐어링이나 스마트 모빌리티 사업을 하는 것이 아니냐는 예측이 있었다. 이에 대해 명확히 확인 부탁드린다. A. 네이버랩스의 관점은 결국 생활환경지능의 가치를 사람들이 누리도록 하는 것에 맞춰져 있다. 자율주행차 연구도 마찬가지이다. 사용자들이 실제 삶에서 그 가치를 느낄 수 있는 수준으로 기술을 고도화하는 것이 먼저이다. 그 과정에서 서비스를 위한 기술 적용 방식은 계속 고민할 것이다. Q. 주행 테스트를 공개하실 계획이 있는가? A. 아직까지 계획은 없다. 어느 정도 유의미한 데이터 축적에 도달했을 때 공개할 예정이다. Q. 헬스케어나 바이오 분야 진출에 관한 얘기도 있었는데, 혹시 올해 DEVIEW에 이와 관련한 기술을 공개할 계획이 있는지? A. 헬스케어 역시 중요한 domain이지만 지금은 선택과 집중의 단계이다. 현재 네이버랩스는 space & mobility 분야에 집중하는 것으로 방향을 잡았다. Q. 현재 딥러닝을 활용해 자율주행 기술을 고도화하고 있다고 했다. 딥러닝을 활용했을 때의 장점은 어떤 것이 있나? A. 예전 같으면 blind spot detection을 할 때 전통적인 computer vision algorithm을 사용했을 것이다. 이런 방식만으로는 정확도를 높이기 어렵다. 하지만 딥러닝을 통해 판단의 정확성이 비약적으로 상승했다. 수년간 연구한 결과가 단 몇 달 만에 도출되어 나오기도 한다. Q. 네이버 자율주행차가 현재 도심의 도로를 달리고 있는가? A. 실제 도로를 달리고 있다. 현재는 어느 정도 한정된 루트로 테스트 중이다. 복잡한 도로 환경을 완전히 인지하고 안전하게 주행할 수 있기까지는 좀 더 시간이 걸릴 것으로 본다. Q. IVI 관련해, 작년 DEVIEW에서 발표한 AMICA와의 접목은 많아 보이지 않는다. 앞으로 어떤 식으로 발전해 나갈 계획인가? A. 네이버랩스 IVI의 음성 인터페이스는 향후 클로바와 협업해 발전시켜 나갈 것이다. 지금은 한정된 상황에서 아주 특화된 부분만 적용되어 있다. 앞으로 더 많은 상황에 대응할 수 있게 바꿔 나갈 것이다. Q. 앞서 3D 기술 기업 에피폴라 인수가 있었다. 올해 투자 계획은 어떻게 되는지? 혹시 고민하고 있는 업체가 있는지? A. 지금 이 자리에서 바로 공개할 내용은 없지만, 투자에 대한 부분은 늘 검토하고 있다.

2017.04.04 원충렬 / PDX

네이버랩스, 2017 서울모터쇼에서 로봇, 자율주행차, IVI 등 연구성과 공개

네이버랩스는 ‘2017 서울모터쇼’ 프레스데이에서 자율주행, 커넥티드 카, 3차원 실내지도 등 생활환경지능 기반 기술을 공개했다. 또한 향후 '공간(space)'과 '이동(mobility)'에 대한 인텔리전스 연구에 본격적으로 집중하겠다는 기술방향성과 IVI 플랫폼의 공개 계획을 밝혔다. 이 자리는 작년 ‘DEVIEW 2016’에서 공개했던 기술들의 발전 경과를 보여주는 한편, 올해 1월 별도 법인으로 독립한 네이버랩스가 처음으로 회사의 역량과 비전을 공개했다는 의미가 있다. 송창현 CEO는 "이제 computing은 PC와 모바일이라는 제한적 환경을 벗어나, 본격적으로 다양한 디바이스와 생활 속으로 스며들기 시작했으며, 그렇기 때문에 우리는 특정한 인터페이스에 국한되는 것이 아니라 실제 삶의 다양한 환경에서 적용이 가능한 자연스러운 인터페이스가 필요했다. 그래서 나온 개념이 바로 ambient intelligence, 즉 생활환경지능이다. 네이버랩스가 추구하는 기술의 방향성인 생활환경지능은 온라인을 넘어서 실생활에서 상황과 환경을 인지하고 이해하여 필요한 정보를 추천/예측해 적시에 제공해주는 기술을 의미한다"고 밝히며 "특히 우리는 사용자들의 발길이 닿는 무수한 공간과 이동 경로를 데이터화 하며, 그들의 삶을 방해하지 않고 자연스럽게 스며드는 솔루션을 제공하기 위해 space & mobility 분야에 집중하고자 한다"고 설명했다. 이를 위해 네이버랩스는 차세대 이동 솔루션을 연구하고 AI와 로봇기술의 융합을 통한 생활공간의 정보화를 지속하는 한편, 새로 개발 중인 IVI 플랫폼을 오픈해 더 많은 파트너와의 협력을 넓혀가는 방식으로 기술과 서비스의 선순환을 이루겠다는 비전을 제시했다. 자율주행차, 인지 분야에 집중해 자율주행 기술 고도화 나서 <네이버랩스 자율주행 차량> 네이버랩스는 ‘인지’ 분야에 주목해 자율주행 기술을 연구 개발하고 있다. '인지'는 정밀한 자기 위치, 사물의 인식 및 분류, 상황의 판단 등 자율주행에서 핵심적인 감각기관과 두뇌의 역할로, 정보와 데이터의 분석 처리가 중요하다. 송창현 CEO는 "네이버랩스가 이미 역량을 키워왔던 비전 기술과 딥러닝 기술을 바탕으로 자율주행 분야의 R&D 속도를 높이고 있다”며, “특히 기계학습 기반의 기술을 실제 차량 주행에 접목시키는 다양한 실험을 통해, 경제적이고도 정확도가 높은 인지 기술을 개발해 나가는 것이 네이버랩스만의 차별화된 경쟁력”이라고 말했다. <네이버랩스 자율주행차 센서 구조> 이번 모터쇼에서 네이버랩스는 딥러닝 기반의 이미지 인식 기술을 통해 도로 위의 사물과 위치를 정밀하게 파악해 차량의 경로를 계획하고, 측후방 영상에서 빈 공간을 판단해 차선 변경 가능 여부를 확인하는 등의 기술을 선보였다. <딥러닝 기반 차종보행자 인식 기술과 측후방 차선 변경 가능 판단 기술> 네이버랩스는, 자율주행 기술 발전은 실제 도로 주행을 통한 경험과 데이터를 쌓는 것이 필수적이기 때문에 실 주행 거리를 늘려가며 미래 이동성 개선과 도로 정보화 연구를 지속하는 동시에, 다양한 파트너와의 협업을 통해 기술 수준을 더욱 높여 나갈 계획이라 밝혔다. 3차원 정밀지도 기술을 구현한 M1 로봇 시연 <3D 실내정밀지도 제작 로봇 M1> 네이버랩스는 이번 서울모터쇼에서, 도로와 구조물로 이뤄진 모형 전시공간을 마련하고, 3차원 실내 정밀지도 제작 로봇인 ‘M1’이 자율주행으로 해당 공간을 이동하며 3D 정밀지도를 만드는 과정을 시연했다. M1은 ▲real-time 3D SLAM ▲자율주행 ▲photo-realistic 3D map generation 등을 활용해, 레이저로 스캔한 무수히 많은 점 데이터를 mesh라 불리는 3차원 공간 데이터로 변환, 카메라로 촬영한 이미지를 붙여 3차원 지도를 만들어낸다. Real-time 3D SLAM : 레이저 스캐너를 이용하여 실시간으로 3차원 실내 지도를 만들고 지도 상에서 로봇의 위치를 파악하는 기술 Photo-realistic 3D map generation : 로봇이 3차원 레이저 스캐너와 360 카메라로 수집한 데이터를 기반으로 3차원 실내 지도를 만들어내는 기술 <3D 실내정밀지도 제작과정> 네이버랩스는 GPS가 잡히지 않는 실내공간의 디지털화를 위해 로봇 M1을 개발했으며, M1으로 제작한 3D 정밀지도를 통해 대규모 실내공간에서도 현재 위치를 간단히 파악하고 길 찾기가 가능해지면, 부동산 정보·게임·광고를 비롯한 여러 공간 기반 서비스들의 핵심 플랫폼으로 활용될 수 있을 것이라고 덧붙였다. 일반 차량을 '커넥티드 카'로 변신시키는 IVI 플랫폼 공개 <네이버랩스에서 개발한 IVI 헤드유닛 디스플레이> 네이버랩스는 카쉐어링 및 자율주행 시대에 맞춰 차량 내 개인 환경에 최적화된 인포테인먼트인 IVI 플랫폼과 이를 구현한 시제품을 공개했다. IVI는 in-vehicle infotainment의 약자로, 차 안에서 즐길 수 있는 엔터테인먼트와 정보 시스템을 총칭하는 용어로, 음악이나 오디오 콘텐츠 등과 같은 엔터테인먼트 기능과 내비게이션, 모바일 기기와 연동된 다양한 서비스를 제공하는 기기 또는 기술을 말한다.   <네이버랩스 IVI 드라이빙 런처 화면> 이번 모터쇼에서 소개한 네이버랩스의 IVI는 주의분산이 최소화된 UX와 절제된 음성 인터페이스로 운전 환경에 적합하도록 설계되었으며, 네이버 로그인을 통해 스마트폰에서 사용하던 서비스를 어느 차량에서나 동일한 경험으로 연결해준다. 네이버 지도와 연계된 내비게이션으로 저장해 놓은 목적지로 바로 길안내를 받을 수 있으며, 날씨·캘린더·뮤직·라디오 등 상황에 맞는 콘텐츠 활용이 가능하다. 또한 AI기술 적용을 통해 운전자의 음성을 인식해, 목적지 검색과 길 안내를 더 안전하고 편리하게 사용할 수 있도록 도와준다. 네이버랩스는 운전자의 환경과 안전에 초점을 맞추고, 차량 정보와 연결된 IVI 플랫폼을 다양한 파트너들과 함께 지속적으로 개선 발전시킬 계획이다. 네이버랩스는 이번 서울모터쇼를 통해 발표한 space & mobility 분야의 다양한 미래 기술들을 실제 삶에 접목해 나가며, 실제 삶에서 누릴 수 있는 유용하고 가치 있는 서비스로 완성시켜 나갈 계획이라고 강조했다.  

2017.03.30 원충렬 / PDX

네이버랩스 최초의 로봇 ‘M1’은 왜 태어났나?

오늘 만나는 미래. 네이버랩스의 Robotics팀 연구 공간이 그러하다. 그곳에서는 어떤 미래를 밝히고자 연구에 매진하고 있는 걸까? Robotics팀의 석상옥 GL (group lead)은 “지금 로봇에 대한 거의 대부분 영역을 모두 연구하고 있습니다. 과연 이 곳에서 어떤 놀라운 결과물이 나올지 저 또한 기대감이 큽니다.”고 말한다. 지난 DEVIEW 2016, Robotics팀은 외부로 공개하는 첫 결과물로 3차원 실내 정밀 지도 제작 로봇인 ‘M1’을 발표했다. 당시 석상옥 GL은 M1의 자율주행 기능을 통해 대규모의 실내 공간을 스캔하고 데이터화하여 삶의 편의를 제공할 수 있는 서비스 플랫폼을 만들어가겠다는 청사진을 밝힌 바 있다. M1을 통해 할 수 있는 것들은 구체적으로 무엇이 있을까? 그리고 향후 네이버랩스의 로보틱스 연구 로드맵은 무엇일까? 이에 대한 석상옥 GL과의 일문일답이다. Q. 네이버랩스에서 M1을 제작한 목적은 무엇인가요? 우리 팀이 목표하는 미션은 생활 공간에서 자유롭게 돌아다니며 사람들에게 다양한 형태의 노동력을 제공할 수 있는 로봇을 만드는 것입니다. 그런데 이를 위해 먼저 해야 할 일이 있습니다. 사람들이 살아가는 공간을 로봇이 잘 이해할 수 있도록 살아있는 데이터를 확보하는 것입니다. 즉, M1은 이후 개발될 로봇들이 사람의 삶을 잘 이해하기 위해 생활 공간 데이터를 디지털화하는 목적으로 태어났습니다. M1이란 이름에서 M은, 지도를 만드는 로봇이라는 의미인 mapper의 이니셜입니다. Q. 그렇다면 M1은 로봇을 위한 로봇인 셈인가요? 그렇긴 한데, M1이 만들어낸 photo-realistic indoor 3D map은 일반 사람들에게도 새로운 경험을 제공할 수 있습니다. 실내 공간은 대체로 GPS가 잡히지 않기 때문에 현재 위치를 알기가 쉽지 않죠. 이로 인해 여러 사업자들이 실내 공간을 기반으로 서비스를 완성하는 것에 어려움을 겪고 있는데, 3차원 실내 지도가 솔루션이 될 수 있습니다. 누구나 스마트폰 촬영만으로 3차원 실내 지도 이미지와 매칭하여 실내 공간에서의 현재 위치를 간단히 찾아낼 수 있게 됩니다. 그래서 차세대 3차원 실내 지도는 실내 공간에 적용될 다양한 서비스들의 핵심 플랫폼이기도 합니다. Q. 구체적으로 어떤 서비스가 가능할까요? 우선 코엑스나 IFC 몰과 같은 초대형 건축물 내부의 목적지로 안내하는 길 찾기 서비스가 가능합니다. 실제로 많은 방문객들이 원하는 서비스입니다. 부동산 정보 제공 서비스나 게임, 컨텐츠 제작에도 획기적인 발전이나 새로운 시도가 가능합니다. 부가적으로는, 지도상의 이미지를 손쉽게 가공할 수 있기 때문에 광고나 정보 제공의 새로운 플랫폼으로도 확장 가능할 것으로 보고 있습니다. Q. M1 제작에는 어떤 기술이 사용 되었나요? 크게 real-time 2D SLAM (simultaneous localization and mapping) 기술, 실내 자율 주행 기술, photo-realistic indoor 3D map generation 기술이 적용되어 있습니다. 먼저 real-time 2D SLAM은 레이저 스캐너를 이용하여 실시간으로 2차원 실내 지도를 만들고 지도 상에서 로봇의 위치를 파악하는 기술입니다. 지도 제작을 위한 실내 자율 주행도 중요한데요, 실내 공간 구석구석을 돌아다니면서 빠짐없이 3차원 데이터를 수집하기 위한 path planning 기술과 자율주행 중 사람 또는 장애물을 회피하는 obstacle avoidance 기술이 활용되었습니다. 마지막으로 photo-realistic indoor 3D map generation은 로봇이 3차원 레이저 스캐너와 360 카메라로 수집한 데이터를 기반으로 3차원 실내 지도를 만들어내는 기술입니다. 3차원 레이저 스캐너로 스캔한 point cloud라는 무수히 많은 점 데이터를 3차원 공간 데이터로 변환하는 mesh generation 기술과, 생성된 mesh에 360 카메라로 촬영한 이미지를 붙여 실감나는 3차원 지도로 만드는 image rendering 기술 등이 적용되었습니다. M1이 대형 쇼핑몰의 실내 공간 데이터를 3차원 레이저 스캐너로 스캔하고 있다. Q. ‘실감나는’이라면 어느 정도를 말하는 건가요? 지난 DEVIEW 2016에서 공개했던 M1 소개 영상의 마지막 부분에 코엑스의 실제 공간이 photo-realistic indoor 3D map으로 바뀌는 장면이 있는데, 지도의 이미지가 너무 생생하고 정교해서 그런지 직접 설명을 하지 않으면 실제 촬영한 부분과 3차원 지도를 사람들이 잘 구분하지 못하시더라고요. Photo-realistic indoor 3D map을 AR/VR 기술과 연동할 경우 게임이나 컨텐츠 제작에도 새로운 영감을 줄 수 있을 것이라 기대하는 이유입니다. 실제 촬영한 실내 공간의 이미지(위)가 photo-realistic indoor 3D map으로 바뀌는 장면(아래) Q. 앞서 MIT에서 Cheetah와 Meshworm 로봇 개발을 진행했던 바가 있습니다. 이 때문에 외부에서는 생체 모방 로봇의 전문가로 알려지기도 했는데요. 앞으로 네이버랩스에서의 로보틱스 연구도 생체 모방이나 자연 모사가 중심이 되나요? 저는 사실 생체 모방 로봇 별로 안 좋아하는데요. (웃음) 결국 저의 주된 관심사는 사람들의 삶에 어떻게 도움을 줄 수 있는지, 어떻게 노동을 대신해줄 수 있을지에 있습니다. 로봇이 그러한 서비스들의 최종 플랫폼이 될 수 있을 것이라 생각하는 것이고요. 지금 네이버랩스에서 연구하고 있는 생활환경지능(ambient intelligence) 기술들과 로봇 기술이 조화롭게 접목된다면 다양한 제품과 서비스로 우리 삶을 윤택하게 해줄 것으로 기대하고 있습니다. Q. Robotics팀의 중장기 로드맵은 무엇인가요? 일단 초기의 중요한 연구 영역은 mobility입니다. 사람이 살아가는 생활 공간은 어디든지 다니면서 다양한 형태의 노동력을 제공해줄 수 있는 로봇을 만들려고 합니다. 앞서 말씀드린 바와 같이 근본적으로 가장 먼저 해결해야 하는 과제가 생활 공간에 대한 디지털화이기 때문에 M1이 만든 3차원 실내 지도로 로봇 연구의 신호탄을 쏜 것이고, 앞으로 이를 기반으로 한 다양한 로봇을 선보일 예정입니다. 중장기적으로 중요하게 생각하는 키워드는 mobility (사람이 다닐 수 있는 곳은 어디든 다닐 수 있는), manipulation (사람과 함께 일을 할 수 있는), intelligence (사람의 의도를 잘 이해하고 상황에 맞는 서비스를 제공할 수 있는)라는 세가지 벡터를 중심으로 다양한 실험을 해나갈 예정입니다. Q. 마지막으로, M1을 관심있게 지켜보는 분들께 전하고 싶은 말이 있다면? M1이 만들어낸 3차원 실내 정밀 지도는 전에 보지 못했던 완전히 새로운 영역의 서비스를 가능하게 해주는 플랫폼입니다. 이를 통해 여러 분야의 전문가들이 아직까지 구현하기 어려웠던 다양한 서비스들에 대해 새로운 영감을 받을 수 있으면 좋겠습니다.

2017.02.17 원충열 / PDX