AWAY

CES 2019 Innovation Awards에서 'AHEAD', 'R1' 등 4개 제품 수상

네이버랩스의 생활환경지능 연구 성과들이 CES 2019 Innovation Awards 수상으로 이어졌습니다. CES Innovation Awards는 엔지니어와 디자이너 등으로 구성된 심사위원단이 탁월한 기술력과 디자인 경쟁력을 갖춘 제품들을 선정해 수여하는 상입니다. 네이버랩스는 총 3개 부문에 출품하여 4개 제품을 수상했습니다. In-vehicle audio/video 부문에 'AHEAD'와 'AWAY'가, vehicle intelligence and self-driving technology 부문에서 'NAVER LABS R1', robotics and drones 부문에 'AMBIDEX'가 각기 수상했습니다. AHEAD, 3D AR HUD AHEAD는 지난 DEVIEW 2018에서 첫 공개를 했던 3D AR HUD입니다. 정해진 단일 초점 거리에 가상 이미지를 생성하는 일반 HUD와 달리, 운전자의 초점에 맞춰 실제 도로와 자연스럽게 융합되는 방식으로 정보를 제공합니다. 운전자는 마치 실제 이미지가 도로 위에 존재하는 것처럼 자연스럽게 내비게이션 정보, 전방 추돌 경고, 차선 이탈 경고, 안전 거리 경고 등을 제공받을 수 있습니다. AWAY, in-vehicle infotainment platform AWAY는 네이버랩스에서 개발한 차량용 인포테인먼트 플랫폼입니다. 운전자의 안전을 고려한 UI, 다양한 지역정보, 음성 에이전트로 목적지 검색이 가능한 전용 내비게이션, 네이버뮤직과 오디오클립 등 주행 환경에 최적화된 미디어 서비스를 제공합니다. 이번 CES에 출품한 AWAY 헤드유닛 디스플레이는 24:9 비율의 스플릿 뷰 기반으로 미디어 콘텐츠와 내비게이션 등 여러 기능을 시각적 간섭 없이 동시에 확인할 수 있는 것이 특징입니다. NAVER LABS R1, mobile mapping system NAVER LABS R1은 자율주행차용 hybrid HD맵 제작을 위한 모바일 매핑 시스템입니다. 우리의 독자적 매핑 솔루션인 hybrid HD맵은, 미리 촬영된 정밀 항공 사진의 정보와 R1 차량이 수집한 point cloud 정보를 유기적으로 결합하는 방식으로 HD맵을 제작합니다. 각 2D/3D 데이터에서 HD맵 제작을 위한 feature들을 자동 추출하는 알고리즘을 적용했기 때문에 일반 MMS 장비보다 제작 비용을 줄이면서도 동일 수준의 정확도를 얻을 수 있으며, 최신성 유지에도 효과적이라는 점이 특징입니다. AMBIDEX, robot arm with Innovative cable-driven mechanisms AMBIDEX는 와이어 구조의 혁신적인 동력 전달 매커니즘을 통해 사람과 안전하게 인터랙션을 할 수 있는 로봇팔입니다. 한 팔의 무게는 고작 2.6kg로, 성인 남성의 한 팔보다 가볍습니다. 그럼에도 최대 3kg의 하중을 버티고, 최대 5m/s의 속도로 동작할 수 있습니다. 동시에 7개의 관절에서 강도를 증폭할 수 있고, 정밀한 제어가 가능하며, 딥러닝을 통해 수행 능력을 발전시킬 수 있기 때문에, 일상 공간에서 사람들에게 직접 도움을 주는 다양한 서비스를 제공할 수 있습니다. 네이버랩스는 내년 1월 8일부터 미국 라스베가스에서 개최되는 CES 2019에 참가합니다. 이번 CES 2019 Innovation Awards 수상 제품 외에도 AI, 자율주행, 로보틱스 등 다양한 분야의 생활환경지능 성과들을 함께 선보일 계획입니다. 이를 계기로 글로벌 무대의 더 많은 파트너들과 함께 location & mobility 영역에서 새로운 가능성의 기회를 만들어가고자 합니다.

2018.11.09 네이버랩스

IDEA 2018 4개 제품 파이널리스트 선정

IDEA 2018 (International Design Excellence Awards 2018)에서 네이버랩스의 AIRCART, M1, PLMM (personal last-mile mobility), AWAY 제품이 파이널리스트에 선정되었습니다. 1980년부터 시작된 IDEA는 미국 산업디자이너협회가 주관하는 국제 디자인 어워드로 독일의 iF, 레드닷과 함께 세계 3대 디자인상으로 꼽히며, 미국 내 주요 회사의 디자이너, 비주얼리스트와 같은 실무진 그리고 학계 저명인사들이 심사위원으로 참가해 주로 독창성, 예술성, 사업성 등의 기준으로 평가합니다. 네이버랩스가 출품한 매핑로봇 M1은 'commercial & industrial' 부문에서 레이저 스캔 영역을 극대화하는 기능성에 충실하면서도 균형감 있는 조형미로, 전동카트인 AIRCART는 'commercial & industrial' 부문에서 견고한 조형미와 운전자 사각지대를 최소화한 전면 디자인으로 안전성을 높인 점으로, PLMM는 'sports, leisure & recreation' 부문에서 기능적 역동성을 심미적으로 완성도 있게 표현해낸 디자인으로, AWAY 헤드유닛디스플레이는 'consumer technology' 부문에서 후면부까지 정제되면서도 완성도 높게 정리된 디자인으로 심사위원들로부터 각기 호평을 받았습니다.

2018.09.20 원충열

AWAY, B2C 제품 첫 출시

AWAY는 네이버랩스에서 개발한 차량용 인포테인먼트 (in-vehicle infotainment) 플랫폼입니다. 이동 및 차량에 필요한 정보를 자연스럽게 연결하고, 안전하고 즐겁게 미디어와 컨텐츠를 즐길 수 있도록 차량 내 환경에 대해 연구한 결과물입니다. AWAY가 첫 공개된 것은 지난해 2017 서울모터쇼입니다. 이후 카셰어링 업체 그린카에 헤드유닛 디스플레이 형태로 장착되어 실제 운전자들과 먼저 만났습니다. 지난해 8월부터 10월까지 AWAY 사용자 1,024명을 대상으로 진행한 그린카 자체 조사에 따르면, 73.6%가 서비스에 만족한다고 답변했으며 72.3%는 재사용 의사를 나타냈습니다. 그간 문의가 많았던 AWAY의 일반 사용자용 제품이 드디어 출시됩니다. 이 제품은 기존 그린카의 헤드유닛 디스플레이 타입 AWAY 디바이스와 비교해 몇 가지 변화가 있습니다. 역시 첫 번째 변화는, 일반 사용자들이 직접 자신의 차량에 매립 혹은 거치하여 사용할 수 있다는 점입니다. 또한 음성검색 기능 강화에도 신경을 썼습니다. 2월 6일 현재, 음성만으로 장소 검색 및 목적지 선택까지 가능한 인터페이스가 적용되었습니다. 상반기 중에는 CLOVA가 추가 업데이트되어, 주행 중 음성으로 미디어를 검색하거나 날씨 및 교통상황 등의 다양한 정보를 확인할 수 있게 될 예정입니다. 미디어도 업그레이드했습니다. 경로 안내 중에도 좀 더 쉽게 미디어를 제어하고, 플레이리스트 접근성도 높였습니다. 네이버 뮤직, 오디오클립, 네이버 스포츠 외에 YTN 뉴스가 추가되었으며, 주행 환경에 적합한 미디어 콘텐츠들을 선별해 앞으로도 지속적으로 더해 나갈 예정입니다. 마지막으로, 이번 B2C 제품은 플랫폼으로서의 AWAY에 중요한 한 걸음이라는 의미가 있습니다. 그린카에 적용된 AWAY는 하드웨어까지 모두 네이버랩스에서 개발한 레퍼런스 모델입니다. 반면 이번 B2C 제품은 파트너 제조사의 단말에 AWAY를 적용하여 출시했습니다. 제조사와의 협력을 통해 UI 비율이 변경되었으며 그에 따른 세부적인 UX도 개선되었습니다. 동시에 기존 제조사 제품이 지원하던 DMB, 블루투스 전화, 후방카메라 등도 함께 사용할 수 있습니다. 향후 다양한 파트너들과의 협력을 통해 더욱 다양한 단말기와 환경에 적용된 AWAY를 만날 수 있을 것입니다. 여러 차량용 하드웨어 제조사에게 AWAY는 분명 새로운 기회가 될 것입니다. 물론 기존 AWAY에서 제공하던 다양한 기능들은 그대로 유지됩니다. 차량 내에서 네이버 아이디로 간편하게 로그인할 수 있으며, 네이버 계정에 등록된 지도, 뮤직, 캘린더, 예약 서비스들이 AWAY와 자연스럽게 연동됩니다. 차량/유종/하이패스 정보 설정을 통해 차량에 맞는 정확한 안내를 받을 수 있습니다. 또한 앞으로는 자동차보험정보 등록 시 긴급출동 서비스를 받을 수도 있게 될 것입니다. (상반기 중 KB손해보험 자동차 보험 가입자들 대상 서비스 제공 예정) 그리고 음성검색 기능에 CLOVA가 추가 업데이트되듯, AWAY의 기능과 UI 및 미디어 콘텐츠들은 앞으로도 계속 업그레이드될 것입니다. 네이버랩스는 사용자의 삶과 상황을 이해하여 필요한 정보를 적시에 제공하는 생활환경지능을 연구하며, location과 mobility 분야에 집중하고 있습니다. 특히 자동차는 일과 중 긴 시간을 보내는 공간인 동시에 안전을 추구해야 하는 매우 특수한 영역입니다. 네이버랩스는 자율주행차 연구와 더불어, AWAY 플랫폼을 통한 차 안과 도로 위의 정보 연결에 주목하고 있습니다. 이를 함께할 파트너사들의 협업과 제안을 기다립니다. 여전히 큰 가능성을 가진 차 안이라는 공간에서 새로운 기회를 찾는 미디어 콘텐츠 기업들, 그리고 주행 환경에 자연스럽게 연결될 서비스의 제공업체들과 함께 새로운 경험을 만들어 가겠습니다.   AWAY 마이크로 사이트 AWAY 제품 구매 페이지 제휴/제안 바로 가기

2018.02.06 박주영 / AWAY

네이버랩스 2017년 특허 출원 현황, 연간 총 56건

올해 초 별도법인으로 독립 이후, 사람과 환경을 이해하는 기술과 제품 개발을 위해 생활환경지능 기반의 연구를 지속해 왔습니다. 그 결과의 일환으로, 올 한해 동안 총 56건의 국내 특허를 출원하였습니다. 출원한 분야 중에는 이미 서울모터쇼 혹은 DEVIEW 등을 통해 발표한 바 있는 각 연구성과들을 다수 포함하고 있습니다. 운전자 환경과 주행 상황에 대해 연구해 온 차량용 인포테인먼트 플랫폼 AWAY에서도 총 8건의 특허 출원이 있었으며, 위치측위에 특화된 생활환경지능 디바이스 AKI, 자율주행차 연구, 하드웨어 및 기타 선행 연구 분야 등에서도 다수의 특허를 출원했습니다. 특히 로보틱스 분야에서는 실내 자율주행 서비스 로봇의 대중화라는 목표로 제작된 AROUND, 누구나 가볍고 안전하게 짐을 옮길 수 있도록 개발된 AIRCART 등을 비롯해 20여 건의 특허를 출원하였습니다. 별도법인으로 독립 후 아직 1년이 안된 기간 동안 어떻게 이렇게 많은 특허를 출원하게 되었을까요? AIRCART를 예로 들어보겠습니다. AIRCART는 웨어러블 로봇 기술을 응용한 전동카트입니다. 사람의 힘을 모터로 증폭시키는 전동카트들은 예전부터 시장에 출시되어 왔습니다. 그러나 AIRCART에는 실제의 사용성에 집중하여 개발된 여러 개선 기술과 응용 기술이 적용되었습니다. 힘 센서를 어떻게 배치하면 사용자 조작감을 향상시킬 수 있을까? 오작동 가능성은 어떻게 줄일 수 있을까? 카트 사용자의 오랜 작업 시간을 고려하여 전력 소모량을 낮출 수 있는 방법은 없을까? 사용자마다 영점 조절을 더 직관적으로 쉽고 정확하게 할 수는 없을까? 평지보다 경사진 곳에서 위험성이 높아지는 카트를 더 안전하게 사용하는 방법은? 이러한 문제들이 하나씩 발견되고, 그 문제를 해결하기 위한 새로운 기술들이 개발되며 마침내 지금의 AIRCART가 나왔습니다. 특허 출원이란 이러한 문제 확인과 해결의 결과물일 뿐입니다. AIRCART 뿐만 아니라 AROUND, AWAY, AKI 등에서도 일상의 환경과 삶의 모습들을 깊게 관찰하고 이해하고자 했습니다. 그리고 끊임없이 문제를 제기하고 최적화된 솔루션을 제안하는 과정을 통한 특허 출원도 이어져 왔습니다. 우리는 이런 방식으로 location & mobility 분야에 집중하며 기술 내재화를 지속해가고 있습니다. 특히 내년에는 비전, 머신러닝 등의 인공지능을 연구하는 네이버랩스 유럽 멤버들의 각 성과들을 비롯해 다양한 분야에서의 해외 특허 출원을 통해 글로벌 기술 경쟁력을 더욱 높여가고자 합니다.

2017.12.11 김병수 / Legal affairs

네이버랩스, DEVIEW 2017 통해 location & mobility 관련 연구 성과 공개

DEVIEW 2017 키노트에서 네이버랩스의 생활환경지능 제품과 연구 성과들을 공개했습니다. 생활환경지능은 생활에서 사람과 상황/환경을 인지/이해하여 적시에 자연스럽게 필요한 정보나 액션을 제공해주는 기술을 의미합니다. 송창현 네이버랩스 CEO 겸 네이버 CTO는 키노트를 통해 ‘도구와 정보들이 넘치는 세상에서, 기술은 사람과 생활환경을 더 잘 이해해야 한다. 기술의 진정한 가치는 기술이 생활 속으로 사라졌을 때 나온다.’는 말로 생활환경지능 연구의 이유를 재차 강조했습니다. 작년 DEVIEW에서 발표했던 생활환경지능 기반 CLOVA (작년 발표 시 명칭은 AMICA), PAPAGO, WHALE 등의 진행 성과 발표에 이어, 올해 네이버랩스의 연구 및 개발 성과들을 함께 공개하였습니다. 핵심은 'location과 mobility 연구를 통해 일상으로 확장되는 생활환경지능’입니다. 1. Location intelligence 자율주행 로봇 서비스의 대중화를 위한 M1, map cloud & AROUND 먼저 DEVIEW 2016에서 공개한 바 있는 매핑로봇 M1은, 에피폴라의 기술이 적용된 개선 버전을 통해 만든 COEX/롯데월드몰 실내공간의 3차원 포인트 클라우드를 공개했습니다. 이 데이터는 고정밀 3차원 실내지도 제작에 활용될 예정입니다. M1이 작년 공개한 예고편이었다면, 본편은 이번 DEVIEW를 통해 공개한 실내 자율주행 서비스 로봇 AROUND입니다. AROUND는 실내 자율주행 로봇의 대중화를 위한 시도입니다. 그 동안 수많은 자율주행 로봇들이 공개되었지만, 지도 생성, 위치 파악, 경로 생성, 장애물 회피 등 자율주행에 요구되는 기능들을 로봇 자체에서 모두 직접 수행해야 했기 때문에 제작비용이 높다는 단점이 있었습니다. 네이버랩스에서는 지도 생성은 사전에 M1이, 위치 파악과 경로 생성은 map cloud가 역할을 대신하여, AROUND 본체에서는 저가의 센서와 낮은 프로세싱 파워로 장애물 회피 등의 기본적인 기능만 갖추고도 정확도 높은 자율주행을 할 수 있는 솔루션을 개발했습니다. 이러한 솔루션을 바탕으로 로봇의 제작 비용을 큰 폭으로 낮출 수 있기 때문에, 사람들의 삶 가까이에서 도움을 제공할 수 있는 실내 자율주행 서비스 로봇의 대량 보급이 가능해집니다. 또한, 공간의 특성이나 목적에 맞는 형태의 로봇으로 쉽게 커스터마이징하여 설계/제작할 수 있기 때문에, 향후 다양한 방식과 형태의 서비스를 제공할 수 있을 것으로 기대하고 있습니다. AROUND는 부산의 복합 공간 F1963에 위치한 YES24 오프라인 서점에서 직원과 고객들에게 도움을 주며 실제 사용됩니다. 위치측위에 특화된 생활환경지능 디바이스 AKI 이어서 위치측위에 특화된 생활환경지능 디바이스 'AKI'를 공개했습니다. AKI는 초등학교 저학년 아이와 부모 사이에서 비롯되는 관계에 주목합니다. 부모와 아이의 공간/위치에 따른 상황을 이해해, 필요한 정보와 서비스를 적시에 제공할 수 있도록 제작되었습니다. AKI는 실내에서도 정확한 위치를 제공하는 자체 WPS DB, 행동을 인지하여 자동으로 조절되는 저전력 위치 탐지, 그리고 위치 개인화(personalized Wi-Fi fingerprinting) 등의 정확한 위치측위 관련 기술이 적용되었습니다. 아이의 location을 정확히 파악하고, 아이의 이동중인 상황을 인지(activity detector, move classifier)하고, 아이가 반복적으로 방문하고 머무는 장소/시간/상황을 분석해 아이의 생활 패턴을 학습하여, 이동 상태 확인이나 비정상 알림과 같이 부모가 아이에 대해 알고 싶은 정보들을 적시에 제공할 수 있도록 설계하였습니다. AKI는 향후 일반 고객들이 직접 구매하고 사용할 수 있도록 출시될 예정입니다. 2. Mobility intelligence 세계 최초 4륜 밸런싱 전동 스케이트보드 다양한 이동성 관련 프로젝트를 진행중인 Robotics 팀은 personal last-mile mobility 연구 과제 중 하나로 개발중인 세계 최초로 4륜 밸런싱 기술이 적용된 전동 스케이트보드를 소개했습니다. 이 보드는 사람이 단순히 몸을 기울이는 것만으로 가속, 감속, 방향 전환이 모두 가능하며, 4륜 지지 구조를 갖추고 있어 안정성이 높고, 40km/hr 이상으로 고속 주행할 수 있습니다. 두 개의 기울기센서를 이용해 1초에 1000번 기울기를 측정하여 무게중심을 항상 제어하기 때문에 급격한 가감속시에도 안정적이며 경사로 주행도 가능합니다. 근력증강 웨어러블 로봇 기술 응용한 AIRCART AIRCART는 우리와 가장 가까운 일상의 공간에서 노동의 어려움을 덜어주기 위해 시작된 프로젝트입니다. 근력증강 웨어러블 로봇에 사용되는 physical human-robot interaction (pHRI) 기술이 적용되었습니다. 운전자의 조작 의도를 카트 손잡이에 달린 힘센서에서 파악해 실시간으로 카트의 움직임(추진력과 방향)을 제어하기 때문에, 누구든 따로 조작 방법을 배울 필요없이 직관적인 사용이 가능한 것이 특징입니다. 특히 더 위험할 수 있는 내리막길에서도 자동 브레이크 시스템으로 안전하게 이동할 수 있습니다. AIRCART는 AROUND와 함께 YES24 오프라인 서점에서 실제 사용됩니다. AWAY, 단말 제조용 툴킷 및 extensions 계획 이동 및 차량에 필요한 정보를 자연스럽게 연결하고, 안전하고 즐겁게 미디어와 컨텐츠를 즐기기 위한 in-vehicle infotainment 플랫폼 'AWAY'는 서비스/콘텐츠 제공사 및 단말을 위해 제공될 툴킷 공개 계획을 밝혔습니다, 내년 오픈 플랫폼으로서의 지원이 본격화될 것이며, 별도의 애프터마켓 제품도 출시 예정입니다. 자율주행차, 연내 도심지에서 SAE 4단계 달성 목표 자율주행차 연구는 도심 내 GPS 음영지역에서도 자율주행이 가능하도록 차선 기반 자기 위치 인식 연구를 강화하고 있으며, KAIST와 산학협력으로 대단위 도심 지역에서 빠르고 정확하게 도로와 표지판 정보 등을 자동으로 추출하는 연구도 착수했습니다. 특히 이번 DEVIEW 키노트를 통해서는 도심의 도로 환경에 실제 자율주행 중인 연구 영상을 공개하며, 2017년 말까지 도심지에서의 SAE 4단계 달성을 목표로 연구에 매진하고 있음을 밝혔습니다. 3. 생활환경지능의 중장기 구현을 위한 산학협력 계단을 비롯한 다양한 생활환경에서의 이동성 연구 이번 키노트의 로보틱스 발표에는 생활환경지능 연구의 중장기 과제 해결을 위한 다양한 산학협력의 결과들도 함께 공개하였습니다. 네이버랩스에서는 사람들이 살아가는 공간에서 실제 도움을 주는 로봇 개발을 목표로 하며, 이를 위해서는 일상 공간에서 자유롭게 움직일 수 있는 이동성, 삶의 맥락을 이해할 수 있는 인공지능, 그리고 다양한 노동력과 서비스를 제공할 팔과 손이 필수적입니다. 이를 위한 연구는 네이버랩스 자체적으로 진행되는 동시에 각 대학과의 협력을 통해서도 함께 진행중입니다. MIT와 협력 중인 Cheetah 3, UIUC와 협력 중인 Jumping robot은 생활 환경 내에서 계단과 같은 단차를 극복하며 자연스럽게 이동할 수 있는 다리 로봇 개발을 위한 장기 산학 연구 과제로 진행 중입니다. 마찬가지의 목적으로 계단을 올라가는 바퀴 달린 로봇 터스크봇(Tuskbot), 물체 인식 및 자율주행하는 TT-bot이 네이버랩스의 인턴 프로젝트로 함께 소개되었습니다. 일상으로 팔을 뻗는 로봇팔 AMBIDEX AMBIDEX는 실생활에서 사람과 자연스럽게 인터렉션하며 다양한 노동력과 서비스를 제공하기 위한 목적으로 네이버랩스와 코리아텍이 장기 산학 연구 중인 로봇팔입니다. 로봇팔은 로보틱스 연구 중에서도 특히 역사가 깊지만 주로 산업 현장에서 정밀/반복/고하중 작업에 적합한 형태로 발전되었기 때문에, 무게, 안전 등의 문제로 일상의 영역에 적용되기는 어려웠습니다. 네이버랩스는 로봇팔을 일상의 영역으로 활용범위를 확대하기 위해 하드웨어/제어/인식/지능 등에 대해 연구하며 세계 최고 수준의 로봇팔 메커니즘 설계능력을 갖춘 코리아텍의 김용재 교수와 산학협력을 통해 사람의 팔보다도 가볍고, 사람과의 접촉에서도 안전한 AMBIDEX를 제작하여 공개했습니다. AMBIDEX는 팔의 경량화를 위해서 무거운 구동기는 모두 어깨와 몸체 부분에 배치하고, 와이어를 이용해서 가벼운 팔을 구동하는 독창적인 와이어 구조를 가지고 있으며, 모든 관절에 강도/강성을 증폭하는 혁신적인 동력 전달 메커니즘을 적용해, 기존 산업용 로봇과 유사한 수준의 제어 성능과 정밀도를 갖췄습니다. AMBIDEX는 로봇이 실제로 사람들에게 도움을 되는 노동력을 제공하고자 할 때, 안전하고 유연하면서도 정밀한 작업이 가능한 로봇 하드웨어로서 새로운 솔루션이 될 것입니다. 이번 키노트를 통해서 발표된 네이버랩스의 각 연구 경과와 성과들은 모두 생활환경지능이라는 비전하에 전개되고 있습니다. 먼 미래의 것처럼 느껴지는 손에 잡히지 않는 기술이 아니라, 실제 생활환경에서의 location과 mobility 연구를 통해 일상에서 직접 혜택을 누릴 수 있는 기술과 제품, 서비스를 연구하고자 합니다. 이를 통해 네이버랩스가 바라는 미래상은 사람들과 사회가 도구에 얽매이지 않고 인생에서 더 중요한 일에 몰입할 수 있는 세상입니다.

2017.10.16 원충열 / PDX

AWAY, 차 안으로 연결되는 생활환경지능

‘AWAY’는 네이버랩스에서 개발한 in-vehicle infotainment 플랫폼입니다. 이동 및 차량에 필요한 정보를 자연스럽게 연결하고, 안전하고 즐겁게 미디어와 컨텐츠를 즐길 수 있도록 운전 행동과 주행 상황, 차량 내 환경에 대해 연구한 결과물입니다. AWAY는 헤드유닛 디스플레이 타입의 하드웨어를 통해 카셰어링 업체인 그린카의 차량에 장착되어 실제 운전자들과 만날 예정입니다. 그동안 네이버랩스는 사람들의 환경과 상황을 이해하여 꼭 필요한 정보를 앞서 제공하기 위한 생활환경지능(ambient intelligence)을 지속적으로 연구해 왔습니다. 차에서 보내는 시간이 많은 현대인들을 위해 주행 상황에서의 생활환경지능 연구 역시 당연한 과제이고, AWAY가 바로 그 성과 중 하나입니다. AWAY의 미래상은 ‘운전자가 주행 중에 원하는 것이나 필요한 서비스를 알아서 먼저 제공한다’는 것입니다. 다만 운전자의 행동을 지속적으로 관찰하며, 하나의 기준점이 전제되어야 한다는 것을 확인했습니다. 바로 안전입니다. 따라서 모든 서비스를 단지 운전자의 요구에 맞춰 제공하려고 하지는 않았습니다. 그에 앞서 딜레마 하나를 푸는 일이 중요합니다. 운전자는 안전을 위해 전면과 주변 도로상황에 주의를 집중해야 하지만, 실제로는 차안에서 보내는 시간을 즐겁고 유용하게 보내고 싶은 욕구도 잠재되어 있다는 점을 해결해야 합니다. 우리는 이런 문제를 해결하기 위해 주행 중 주의 분산을 최소화하고, 운전자의 의도에 맞는 정보/콘텐츠/서비스를 가장 안전한 방식으로 제공하는 솔루션에 집중했습니다. 운전자가 인지할 수 있는 정보량은 한정되어 있기 때문에 많은 정보보다는 의미 있는 정보를 제때 제공해야 하며, 자주 반복되는 조작은 운전자가 주의를 기울이지 않고도 쉽게 할 수 있어야 합니다. AWAY의 음성인식 인터페이스도 같은 기준으로 설계되었습니다. 차량에서 제공해야하는 음성 인터페이스는 그 어떤 대화형 에이전트보다 정확하게 장소를 인식하고 분석할 수 있어야 합니다. 오작동이 생기면 운전자는 원하는 기능을 실행하기 위해 반복된 시도를 하게 되며 해당 기능에 대한 인지적/물리적 체류시간이 늘어납니다. 그 시간 동안 운전에 집중하지 못하는 상황이 발생합니다. 이런 상황을 피하기 위해 AWAY의 음성 인터페이스는 ‘운전에 관련된 것’ 위주로, 그에 따른 ‘정확한 인식률’에 집중했습니다. 비가 올 때 빗 소리나 와이퍼 소음과 다양한 도로 면 위에서의 주행 등 여러 상황에 최적화되어야 하며, 특히 음성인식 성능에 중요한 NLU (natural language understanding)의 고도화도 중요한 과제입니다. ‘강남역 근처 스타벅스 찾아줘’같은 운전자가 주행 중에 내놓은 발화를 정확히 인식한 다음에 NLU에서 POI DB와 매칭하는 한편, 사용자의 발화 의도를 정확히 파악하여 원하는 결과를 내놓아야 합니다. 평소 차안에서 말하는 자연어에서 장소와의 관련성을 판별하는 로직을 개발하였으며, 또한 사람들이 복잡한 장소명의 일부분만 간단하게 추려서 말하는 경향을 파악하여 긴 장소명의 일부만 발화시에도 부분 매칭을 통해 정답을 분석해내는 로직도 적용되었습니다. 차량 내에서 소비하는 미디어 역시 운전자의 안전이라는 기준에 맞췄습니다. 운전자의 전방 주시를 방해하지 않도록 화면에 시선이 머무르는 시간을 최소화하며 오디오 중심의 컨텐츠로 구성하는 것을 원칙으로 삼고, 미디어에 접근하는 depth in-out도 줄였습니다. 특히 이미 스마트폰에서 즐기던 콘텐츠나 서비스와 연동되는 연속된 경험도 중요하기 때문에, AWAY를 통한 미디어와 서비스 경험은 반드시 차에 탑승하기 전부터의 시나리오를 고려하여 적용했습니다. 이번 AWAY 플랫폼을 만들며 내부적으로 중요한 결정이 하나 있었습니다. 플랫폼이 구동되는 하드웨어를 직접 설계/제작하겠다는 것입니다. 이는 더 완성도 높은 플랫폼 개발을 위해서입니다. 아직 생활환경지능을 차량 내에 완벽하게 도입한 기성 제품은 없기 때문에, 우리는 AWAY 플랫폼이 적용된 하드웨어를 직접 설계하고 제작하여, 무엇을 지향하고 어떻게 구현될 수 있는지를 보여주고자 했습니다. 실제로 제품을 제작하면서 발열과 차량내 고온으로 인한 오작동, 길 안내 중의 시스템 오류 등의 다양한 상황이 제품 개발을 통해 충분히 테스트되었으며 플랫폼의 완성도를 더 높일 수 있는 다양한 데이터 확보에 활용되었습니다. AWAY은 개방형 플랫폼을 지향합니다. 이번 제작된 헤드유닛 디스플레이가 레퍼런스가 되어 이미 여러 파트너들과 다양한 협의와 계획이 진행중이며, 더 많은 가능성을 함께 열어갈 것입니다. 우리는 앞으로 AWAY 플랫폼이 적용된 다양한 제품과 서비스들을 통해 안전, 연결, 개방과 같은 키워드들이 차 안에서 당연하게 느껴질 수 있도록 연구와 개발을 지속할 예정입니다. AWAY 마이크로사이트 바로가기 AWAY 파트너십 제안 그린카에서 AWAY 사용해보기

2017.08.17 김재희 / AWAY

네이버랩스, IVI 플랫폼 'AWAY' 정식 출시

네이버랩스가 카셰어링 기업 '그린카'를 통해 차량 내 개인 환경에 최적화된 IVI 플랫폼 'AWAY'와 이를 적용한 헤드유닛 디스플레이 타입의 하드웨어를 17일부터 공개한다. 네이버랩스와 그린카는 연내 1천대의 차량에 AWAY를 순차적으로 설치하고, 이후 전국 3천대까지 적용차량을 늘려갈 방침이다. IVI (In-Vehicle Infotainment, 차량용 인포테인먼트)는 음악, 오디오콘텐츠 등 차 안에서 즐길 수 있는 엔터테인먼트(entertainment)와 내비게이션, 정보시스템을 총칭하는 말이다. 이번에 공개된 AWAY는 상시적인 인터넷 네트워크를 기반으로 차와 정보, 운전자를 실시간으로 연결하는 IVI 플랫폼이다. 네이버랩스는 지난 3월 '2017 서울모터쇼'에서 자체 제작한 플랫폼과 관련 기기를 처음으로 선보인 후, 사용자 최적화 과정을 거쳐 약 5개월만에 AWAY라는 이름으로 정식 출시했다. AWAY는 운전자의 주의 분산을 최소화하면서 효율적인 정보 전달에 집중하는 방향으로 설계됐으며, 운전자가 상황에 맞춰 쓸 수 있는 다양한 인터페이스를 제공한다. 음성을 실패없이 인식하고 목적지 검색과 길 안내로 연결해주는 기능은 손을 사용하기 어려운 주행 상황 중 갑자기 목적지를 변경 할때 특히 유용하다. 원하는 장소로 접근하기 위해 차 안에서 여러 번의 검색을 거듭해야 하는 운전자의 불편함도 줄였다. AWAY는 국내에서 가장 많은 네이버의 방대한 관심지점 (POI, point of interest) 정보를 그대로 탑재하고 있으며 최신 POI 정보를 계속 학습하고 있다. 이를 이용해 '수요미식회 맛집 찾아줘', '이태원 일식집 찾아줘', '가까운 현금인출기 찾아줘' 등의 맥락이 담긴 정확한 음성인식 목적지 검색도 가능하다. 차의 이동 경로는 다양한 데이터 기반으로 길을 학습하는 지능형 내비게이션이 안내한다. AWAY는 네이버의 도로 네트워크 데이터와 실시간 교통정보를 기반으로 최적의 경로를 찾아내며 주행 소요시간과 회전 횟수가 적은, 운전하기 편한 길로 운전자를 인도한다. 중요한 정보는 최적화된 방식으로 분류한 후 스플릿 뷰(Split View) 기능을 통해 두 개의 창에 띄워준다. AWAY와 함께 공개되는 헤드유닛 디스플레이 하드웨어는 차량 운전자 안전을 고려해 네이버랩스가 직접 설계·제작한 제품이다. 24:9 비율의, 가로가 긴 화면이기 때문에 미디어 콘텐츠, 내비게이션 등 여러 개의 기능 화면을 분할해서 시각적 간섭 없이 동시에 보여줄 수 있다. 운전 중 다른 기능 화면을 보더라도 경로 안내 정보는 항상 확인할 수 있게 한다는 콘셉트다. 차 안에서 즐길 수 있는 미디어 콘텐츠도 풍부하다. 네이버뮤직, 오디오클립, 스포츠라디오 등 오디오 중심의 콘텐츠들이 AWAY를 통해 제공된다. AWAY는 스마트폰이나 PC에서 쓰던 서비스들을 네이버 로그인만으로 그린카 어느 차량에서나 즐기는 연속적인 경험을 제공해준다. 차량에 탑승해 네이버 지도에 즐겨찾기 해놓은 장소로 바로 이동하거나, 네이버뮤직 '내 리스트'에 넣어둔 음악을 차 스피커를 통해 바로 감상할 수 있다. 이번 그린카와의 파트너십에서는 운전자의 운전 패턴을 분석하는 '에코 드라이빙' 가능과 '반납연장', '주행요금 모의정산'등 공유 차량에 특화된 기능들도 함께 탑재됐다. 네이버랩스는 다양한 파트너들과의 협력을 통해 AWAY에 탑재될 콘텐츠들을 더욱 확대해나갈 계획이다. 예를 들어 향후에는 내 캘린더에 등록된 일정을 AWAY가 인지하고 비서처럼 알아서 목적지와 근처 식당 안내와 주차장 예약 등을 연동하는 식의, 사용자 의도를 빠르게 파악하여 제공하는 서비스 등이 가능해진다. 아울러 이동시에 즐길 수 있는 스트리밍 미디어 콘텐츠와 차량 및 공간 관련한 다양한 서비스들도 지속적으로 추가해갈 예정이다. 현재 AWAY의 이용은 그린카를 통해 쉽게 경험할 수 있다. 그린카 이용자는 예약 시 AWAY가 탑재된 차량을 직접 선택할 수 있으며, 차량 탑승 전 그린카 앱에서 직접 네이버 로그인을 하고 예약한 차량 내에서 AWAY 서비스를 바로 이용할 수 있다. 네이버랩스 송창현 CEO는 "네이버랩스는 사용자를 둘러싼 공간과 환경을 깊이 이해하고 지능적인 이동성이 만들어낼 수많은 가능성에 주목하며 삶의 가치를 높이는 기술을 연구하고 있다”며 “AWAY 역시 차량 내 공간과 운전자의 이동에 대한 이해를 통해, 더욱 안전하면서도 가치있는 삶을 만들고자 하는 노력의 결과이다."고 밝혔다. 한편 네이버랩스는 사용자의 실제 생활 환경과 상황을 인지하고 이해하여, 필요한 정보를 적재적시에 제공하기 위한 '생활환경지능(Ambient Intelligence)' 기술 연구를 지속하고 있다. 공간(space)과 이동(mobility)은 생활환경지능 관련, 네이버랩스가 집중적으로 다양한 연구를 진행중인 분야다. 특히 자동차는 많은 사람들이 일과 중 긴 시간을 보내는 공간인 동시에 안전을 추구해야 하는 이동 수단으로, 네이버랩스는 자율주행차 연구와 함께 AWAY 플랫폼을 통해 차 안에서와 도로 위의 정보 연결이 주는 새로운 가능성에 주목하고 있다. 이번에 공개한 AWAY는 올해 1월 네이버랩스 분사 이후 내놓은 첫 번째 일반 이용자향 서비스다.

2017.08.17 김동환 / PDX

네이버랩스, 카셰어링 업체 그린카 통해 IVI 플랫폼과 제품 시범 운영 시작

네이버랩스는 카셰어링 업체 '그린카'를 통해 차량 내 개인 환경에 최적화된 IVI 플랫폼과 이를 구현한 제품을 이달 29일부터 시범 운영한다. 지난 '2017 서울모터쇼'에서 해당 플랫폼과 시제품을 첫 공개한 후 약 4개월 만이다. IVI는 In-Vehicle Infotainment의 약자로 차 안에서 미디어, 길찾기 같은 주행 정보, 모바일 기기와 연동된 다양한 서비스를 이용할 수 있다. 특히 이번 그린카와의 파트너십에서는 네이버랩스에서 직접 설계·제작한 하드웨어 '헤드유닛 디스플레이'를 통해 플랫폼이 제공된다. 네이버랩스의 IVI는 주의분산이 최소화된 UX와 탁월한 음성 인터페이스로 운전 환경에 적합하게 설계되었으며, 네이버 로그인을 통해 스마트폰에서 사용하던 서비스를 어느 차량에서나 동일하게 경험할 수 있도록 연결해준다. 또한 풍부한 데이터 기반의 전용 내비게이션과 네이버뮤직, 오디오클립, 스포츠라디오를 비롯한 다양한 미디어 콘텐츠 경험이 가능하다. 네이버랩스 IVI가 장착된 그린카를 대여·예약 하는 방법은 정식 출시 시점에 안내된다. 네이버랩스는 향후 IVI 플랫폼을 통해 차 안에서와 도로 위의 정보 연결이 주는 새로운 가능성들을 다양한 파트너들과 함께 지속적으로 열어갈 예정이다. 2017 서울모터쇼에서 공개했던 IVI 팀인터뷰 영상   관련기사 네이버랩스, 2017 서울모터쇼에서 space & mobility 기반 연구성과 공개  

2017.07.28 김동환 / PDX

네이버랩스, 2017 서울모터쇼 현장 스케치

킨텍스에서 진행된 '2017 서울모터쇼'가 지난 4월 9일 막을 내렸다. 이번 모터쇼에서 자율주행차, 3차원 실내 정밀지도 제작 로봇 'M1', IVI (in-vehicle infotainment) 플랫폼과 헤드유닛 디스플레이를 공개했던 네이버랩스 역시 전시와 시연을 성공리에 마쳤다. 로봇 M1이 현장에서 자율주행하며 지도 제작 과정을 시연하고, 자율주행차의 라이다(LIDAR)를 통한 인지 기술을 직접 볼 수 있도록 전시하는 등, 어렵게 느껴질 수 있는 생활환경지능 기술을 일반 관람객들도 흥미롭게 체험할 수 있도록 했다. 특히 직접 기기를 체험할 수 있도록 공개한 IVI 헤드유닛 디스플레이 역시 많은 관심을 받았다. 현장에서 만난 관람객들은 대체로 모터쇼에 등장한 네이버가 새롭다는 반응으로, 흥미롭게 부스를 둘러보고 있었다. "모터쇼에서 네이버를 보게 될 줄 몰랐다. 생각보다 스케일이 커서 놀랬고, 막연히 네이버에 갖고있던 인상도 더 좋아졌다." (대학생 김정O) "국내 기업에서 자율주행이나 로봇 같은 미래기술을 연구하고 있다고 해서 놀랐다. 좀 더 한국 현실에 맞는 서비스를 쓸 수 있을 것 같아서 기대된다." (회사원 최재O) 익숙한 자동차 업체들 사이에서 유난히 더 눈에 띄었던 네이버랩스 부스. 어떤 것들이 준비되었고, 실제 현장 분위기는 어땠을까? 10일간 쉬지않고 달려왔던 이들에게 직접 들어보았다. Autonomous Driving : 자율주행차 전시와 라이다(LIDAR) 실시간 탐지기술 시연 "이번 모터쇼에서는 실제 자율주행 차량의 라이다 (LIDAR) 센서를 통해 데이터를 실시간으로 처리하여 이동하는 물체를 탐지하는 시연을 진행했는데요. 차량 위쪽 4면 디스플레이를 통해 주변 환경을 어떻게 인지하고 있는지 일반 관람객들이 한 눈에 보고 이해할 수 있도록 전시했습니다. 이번 전시를 통해 일반 대중들과 다양한 업계의 파트너들에게 우리의 자율주행 기술 수준과 비전을 효과적으로 전달하는 계기가 되었다고 생각합니다. 사람들의 삶을 크게 바꿀 수 있는 기술이기 때문에 많은 이들이 큰 기대와 관심을 가지고 있다는 것을 현장에서 다시 확인할 수 있었습니다. 그러한 기대가 현실이 되는 시점을 앞당기기 위해 연구와 개발에 더욱 집중하려고 합니다." - Mobility 백종윤 In-Vehicle Infotainment : 헤드유닛 디스플레이에서 경험하는 IVI 플랫폼 "현장에서는 네이버랩스의 IVI 플랫폼을 직접 경험해볼 수 있도록 '자체 제작'한 헤드유닛 디스플레이를 준비했습니다. (자체 제작했다는 걸 뒤늦게 알게 되시는 분도 많으시더라고요.) 많은 분들이 음성인식이나 오디오 콘텐츠를 직접 체험해보며 신기해하셨습니다. 자율주행차 보러 왔다가 IVI까지 준비되고 있어서 놀랍다는 반응도 있었습니다. 내부적으로는 7월 출시 예정인 제품을 중간에 선보이기 위해 바쁘고 지치는 시간을 보내기도 했지만, 부스에 방문하신 분들의 많은 관심과 다양한 의견은 분명 큰 힘이 되었습니다. 이번 첫걸음을 통해 현장에서 듣고 목격했던 반응들을 토대로, 더 나은 '운전과 이동의 경험'을 위한 연구를 지속하려고 합니다." - IVI 이창희 Autonomous 3D Indoor Mapping Robot : 3차원 정밀지도 기술을 시연한 로봇 M1 "로봇의 귀여운 외모 덕분에 현장에서 어린아이들의 사랑을 많이 받은 것 같습니다. 선배 연구자로서 찾아와 응원해주셨던 데니스홍 교수님께도 고마웠습니다. 부스에 찾아와 한 시간 넘게 설명을 듣고 아낌없는 조언과 칭찬을 해주셨을 뿐 아니라, 본인의 SNS를 통해 저희가 한 일에 대해 큰 응원을 보내주시기도 했습니다. 사실 이번에 Robotics 팀은 수많은 기자 앞에서, 그리고 그보다 많은 관람객들에게 M1이 자율주행 기반으로 지도를 만드는 것을 실시간으로 시연하는 막중한 임무를 가지고 있었습니다. 완벽한 시연을 위한 준비 과정에도 에피소드가 많았고, 현장은 긴장의 연속이었지만 결국 M1은 전시 기간 중 하루 8시간, 5분 간격으로, 무려 열흘간의 중노동을 고장 없이 성공적으로 수행했습니다. 팀원들의 열정이 없었다면 힘들었을 것입니다. 작년 DEVIEW에 이어 평생 잊지 못할 또 한 번의 좋은 기억이 되었을 것이라 생각합니다." - Robotics 석상옥

2017.04.12 장혜원 / PDX

IVI, 네이버랩스가 자동차 생태계에 보내는 생활환경지능 초대장

네이버랩스 IVI 소개 영상 지난 3월 31일 네이버랩스는 2017 서울모터쇼에서 IVI 플랫폼이 탑재된 시제품 '헤드유닛 디스플레이'를 공개했다. IVI란 in-vehicle infotainment의 약자로 차 안에서 음악 등 엔터테인먼트와 길찾기 같은 주행 정보, 모바일 기기와 연동된 다양한 서비스를 제공하는 기기 또는 기술을 말한다. 네이버랩스는 시제품 공개와 더불어 IVI 플랫폼을 다양한 파트너들에게 개방하고 지속적인 협력 생태계를 만들어 가겠다는 계획도 밝혔다. 이번 발표는 네이버랩스가 분사 이후 내놓은 첫번째 일반 소비자용 서비스라는 점에서 의미가 적지않다. 물론 분사 이전에 ‘파파고’나 ‘웨일’같은 서비스를 출시한 바 있지만, space & mobility라는 관점에서 생활환경지능 연구에 집중하겠다는 선언과 함께 공개한 IVI는 시사하는 바가 남다를 수밖에 없다. 네이버랩스는 왜 IVI 플랫폼을 연구할까? IVI팀과 일문일답을 나눠보았다. Q. 네이버랩스의 시제품이 조작 체험이 가능한 형태로 일반에 공개된 것은 이번 서울모터쇼가 처음입니다. 현장에서 가장 흥미로웠던 반응은 무엇이었나요? 많은 분들이 주로 음성인식에 대해서 관심을 보였습니다. 기자와 일반 관람객 모두 기기를 잡더니 가장 먼저 확인해보는게 음성인식이었어요. 저희가 설명을 하지도 않았는데 말이죠. (웃음) 가령 '광화문'이라고 말했을 때 내비게이션에 광화문이 바로 뜨는 것을 보고 신기해 했습니다. Q. 근래 음성인식 기반의 제품이나 서비스에 대한 관심이 세계적으로 뜨겁습니다. IVI 역시 음성인식이 핵심이라고 볼 수 있을까요? 물론 음성인식도 중요합니다. 하지만 하나의 요소로 보는 것이 맞습니다. 저희는 이번 공개를 통해 ‘운전자의 환경과 안전을 연구한다’는 IVI 연구 목표를 밝힌 바 있습니다. 음성인식 기술 적용에 있어서도 마찬가지로 실제 운전자 환경에 잘 맞고 안전을 저해하지 않는다는 전제가 우선됩니다. 2015년에 미국 자동차 협회(AAA) 교통안전재단에서 주행 중 음악을 바꾸거나 핸즈프리 기능으로 전화를 거는 행위를 할 때 운전자의 주의력이 27초 동안 산만해질 수 있다는 연구 결과를 발표한 적이 있는데요. 현재 단계의 음성 인식 기능이 이를 완전히 해소하는 것은 아니라는 지적도 있습니다. 저희가 내부에서 진행하는 리서치 결과도 마찬가지입니다. 그래서 저희는 음성 명령 과정이 복잡하거나 명령이 실패할 경우 운전자의 주의 자원(available attention resource)을 더 많이 잠식할 수도 있기 때문에, 주의 분산을 최소화하는 인터페이스를 개발한다는 일관된 목적 하에 절제된 방식으로 적용하는 연구를 계속하고 있습니다. Q. 네이버랩스는 지속적으로 생활환경지능이라는 기술 비전을 내세우고 있습니다. IVI팀이 생활의 여러 부분 중 차안이라는 공간에 주목한 이유가 궁금합니다. 네이버랩스는 사용자의 실제 생활 환경과 상황을 인지하고 이해해서 필요한 정보를 알아서 제공하는 생활환경지능(ambient intelligence) 기술 구현을 추구하는 회사입니다. 보통 생활은 공간과 이동의 연속으로 이뤄지는데, 그 중에서 상당히 비중이 높은 이동 수단 중 하나가 자기 차량입니다. 영국왕립자동차클럽재단에 따르면 현재 사용자들이 차량 내에서 보내는 전세계 평균 시간이 약 61분이라고 합니다. 삶에서 차지하는 비중을 생각해보면 이 곳에서의 생활환경지능 연구는 당연한 것이죠. 저희는 그 안에서의 경험을 어떻게 더 인텔리전스하게 만들지를 오랜 기간 연구했고, 이번에 선보인 IVI 시제품은 그 고민의 결과물입니다. Q. 구체적으로 어떤 고민들이 있었나요? 우리는 운전을 할 때 두 손과 발을 씁니다. 사고가 나지 않도록 눈은 항상 앞을 주시해야 하지요. 이런 상황에서 새로운 길을 찾거나, 듣던 음악을 바꾸거나, 원하는 라디오 뉴스를 들으려는 시도들을 합니다. 사실 가장 안전하기 위해서는 이런 시도를 아예 하지 않고 운전에만 집중하면 됩니다. 하지만 실제로는 하고 싶고, 이미 하고 있기도 하죠. 사람들이 이런 행동을 하는 이유는 운전한다는 행위 자체를 단지 이동이라는 본원적 목적에 한정시키지 않고, 그 안에서 보내는 시간과 경험까지도 만족스럽게 만들고 싶기 때문인데요. 저희는 이 딜레마를 해결하고 싶었습니다. 즐거움이라는 정서적 혜택과 안전이라는 기본적 가치가 상충되지 않는다는 것을 보여주자는 것이죠. 결국 사용자가 어느 차량에서나 운전에 지장을 받지 않으면서 필요한 정보나 서비스를 제공받는 작업들을 안전하고 손쉽게 할 수 있는 인터페이스를 제공하는 것이 고민의 핵심이었습니다. Q. 플랫폼 뿐 아니라 단말기까지 직접 제작한 이유가 있나요? 생활환경지능을 차량 내에 도입한 곳이 아직은 없기 때문이라고 말하고 싶네요. 차 안은 다른 공간들에 비해 운전자의 안전이 가장 중요시되는 특수한 환경이다 보니, 완성차업체들은 새로운 시스템을 도입할 때 가장 보수적이고 안정적인 결정을 내리게 됩니다. 안전을 위해서는 당연한 프로세스이겠지만, 그로 인해 새로운 시스템을 도입하기로 결정한 후에도 실제 차에 적용하기 까지는 통상 3~4년이 걸립니다. 결국 지금껏 누구도 선보인 적 없는 생활환경지능 플랫폼을 차 안에 넣는다는 것은 자동차 제조사로서는 큰 모험인 셈입니다. 그래서 저희는 '플랫폼이 작동하는 장치를 만들어서 이런 게 된다는 걸 직접 보여주고 싶다'는 생각을 하게 됐습니다. 그리고 만들었지요. (웃음) 차 업계와 운전자에 보내는 생활환경지능 세계로의 초대장 같은거라고나 할까요. Q. IVI 플랫폼과 그 위에 얹어지는 콘텐츠, 서비스들은 어떤 차별점을 가지나요? 일단 기초적인 컨텐츠 보유량에서 확연한 차별성이 있습니다. 이미 많은 분들이 네이버 검색, 콘텐츠, 지도, 내비게이션 등 다양한 네이버 서비스를 사용하고 있는데요, 저희는 PC나 스마트폰에서 즐기던 이 서비스들을 네이버 로그인 기반으로 차안에서도 분절되지 않고 연속적인 경험을 만들어 내려고 합니다. 예를 들어 네이버 로그인만으로 네이버 지도와 연계된 내비게이션으로 저장해 놓은 목적지로 바로 길안내를 받을 수 있으며, 내 캘린더의 목적지나 식당 예약 등과 연결해 추가 입력없이 바로 길 안내를 받는 것도 가능합니다. 뮤직 등의 다른 서비스도 마찬가지로 로그인 기반으로 PC나 스마트폰에서 사용하던 서비스를 어느 차량에서나 동일한 경험으로 연결해주고자 했습니다. 여기에 차량 운전자 환경에 대한 고려와 최적화 과정을 거쳤습니다. 전방 주시를 방해하지 않도록 오디오 중심의 콘텐츠로 구성하는 한편, 사용자 의도를 빠르게 파악하여 적합한 서비스를 제공해주는 연구도 지속하고 있습니다. 예를 들자면 사용자가 서울에서 속초까지 가다가 "가는 길 근처에서 아이랑 가볼 만한 곳 찾아줘"라고 말했을 때, 그 복잡한 요구를 이해해서 검색해주는 수준의 서비스로 발전시키고자 합니다. 개인화된 서비스도 중요합니다. 실제로 개인마다 차량 이용 환경이 무척 다양합니다. 그래서 차에서 이루어지는 다양한 상황을 면밀하게 분석하고, 기존의 서비스들과 연동하여 운전자가 최소한의 노력만으로도 원하는 서비스를 제공받는 것이 중요합니다. 일정표에 적힌 일정을 인지하고 비서처럼 알아서 목적지와 근처 식당 예약, 주차장 예약 등을 연동시키는 경험을 제공할 수 있어야 비로소 사용자가 생활환경지능의 가치를 느낄 수 있을 것입니다. 소비자 뿐만 아니라 차량에서 연결될 수 있는 콘텐츠나 서비스를 개발해 제공하는 생산업체 입장에서도 IVI는 상당히 유용한 플랫폼이 될 것입니다. 좋은 아이디어가 있다면 음성 AI 기술이나 차량 환경에 최적화된 터치 인터페이스를 따로 개발하지 않아도 IVI 플랫폼에서 제공하는 SDK를 통해 간편하게 특화된 서비스를 만들수 있게 됐기 때문입니다. Q. 주로 어떤 콘텐츠가 중요하다고 보나요? 그리고 어떻게 확장될 것으로 예상하나요? 크게 '공간에 대한 정보', 그리고 '이동 시에 편리함과 즐거움을 줄 수 있는 꺼리'라는 두 가지 측면에서 서비스와 콘텐츠를 제공하려고 합니다. 앞으로 지역 검색이나 식당·카페·주차장 등과의 연계를 강화하면 차를 타고 맛집으로 이동하면서 IVI를 통해 식당 예약과 주차할 장소까지 한번에 해결하는 경험도 제공할 수 있을 것으로 생각합니다. 차량 안에서 즐길 수 있는 엔터테인먼트 콘텐츠로는 현재 음악, 오디오클립, 네이버스포츠 등을 연계했고 앞으로 더욱 확대할 예정입니다. Q. 이번 서울모터쇼를 통해 플랫폼 개방 계획을 밝혔습니다. 어떤 이유인가요? IVI 플랫폼 개방의 가장 큰 목적은 다른 사업자와 연계를 통해 전체적인 사용자 경험의 질과 만족도를 높이는데 있습니다. 가령, 완성차업체나 1차 부품업체들과의 협업을 통해 차량 내 장치들과 IVI 플랫폼을 더 밀접하게 연동시킬 수도 있을 것입니다. 또 기존 O2O 서비스들과 더 밀접하게 연계한다면 사용자에게 더 나은 경험을 제공할 수 있겠지요. 저희는 이런 측면에서 플랫폼을 개방하고 시장 참여자들과 함께 발전시켜가는 것이 이 프로젝트의 중요한 핵심이라고 생각합니다. Q. 서울모터쇼에서 IVI 시제품을 체험해본 많은 사람들이 본격적인 서비스 시점을 궁금해합니다. 카셰어링 업체 '그린카'를 통해 올해 7월부터 IVI 플랫폼을 본격적으로 제공할 예정입니다. 출시되는 제품에는 모터쇼 체험용 제품보다 한층 개선된 기술과 콘텐츠가 탑재될 것입니다. 첫번째 파트너로 카셰어링 업체와 손을 잡은 이유도 많이 물어보시는데요. 일단 공유경제가 추구하는 사회적 가치를 응원한다는 측면이 있겠고요. 더불어 일반적으로 엔트리급에 최소화된 사양으로 제공되는 카셰어링 차량에 주목했습니다. 여기에 단지 네이버랩스의 IVI를 추가하는 것만으로도 많은 운전자들이 일부 고급 차량에서나 제공할 수 있던 스마트하고 흥미로운 서비스를 경험할 수 있을 것이라고 봤기 때문입니다. 결국 에코시스템이란 사업자와 사용자에 이르기까지 참여자 모두가 이익을 누려야 지속가능성을 확보할 수 있습니다. 그런 측면에서 첫 파트너로서 카셰어링 업체는 네이버랩스 IVI가 추구하는 바를 처음 세상에 알리고 유익한 경험으로 확산하기에 적합하다고 판단했습니다. 물론 이후에는 더 많은 파트너들과 함께 플랫폼을 지속적으로 발전/확대하는 한편, 네이버랩스의 space & mobility 분야에서 개발중인 다양한 기술 고도화를 통해 안전하면서도 편리한 차량내 인포테인먼트 환경을 만들어나갈 예정입니다.

2017.04.06 김동환 / PDX

[서울모터쇼] 송창현 네이버랩스 CEO 프레스데이 키노트

지난 3월 30일, 네이버랩스 송창현 CEO는 2017 서울모터쇼 프레스데이에서 자사의 비전과 기술을 발표했다. 자리를 가득 채운 기자들 앞에서 진행된 키노트 중 자율주행 연구가 미래 이동성과 교통시스템 개선 및 도로 환경의 실시간 정보화를 목표로 한다는 것, 새로 발표한 IVI 플랫폼의 오픈 계획, 네이버랩스가 추구하는 space & mobility 기술의 대표적인 결과물인 3D indoor mapping robot 'M1'의 라이브 시연 등이 특히 관심을 끄는 대목이었지만, 결국 키노트 전체를 관통하는 핵심적인 메시지는 다음과 같다. "이제 사람이 도구와 기술을 배우고 이해할 때는 끝났다. 기술이 사람과 생활환경을 이해해야 한다. 기술의 진정한 가치는 기술이 생활 속으로 사라졌을 때 나온다." 이것이 바로 생활환경지능이라는 기술 비전이 제시된 이유이며, 현재 네이버랩스가 실제 사람들의 삶이 펼쳐지는 space에 대한 이해, 그리고 그 공간과 공간 사이를 연결해주는 mobility의 지능화에 집중하는 이유라는 맥락이다. 송창현 CEO는 M1이나 자율주행차, 그리고 새롭게 공개하는 IVI 플랫폼이 각자 다른 목표를 추구하는 것이 아니라 모두 같은 맥락으로 전개되는 연구 결과들이며, 이를 통해 온라인을 넘어 실생활에서 상황과 환경을 인지하고, 사람들이 필요한 정보를 예측해 적시적소에 제공할 수 있는 기술과 서비스들을 다양한 파트너들과 함께 고도화할 것이라고 강조했다. <2017 서울모터쇼 네이버랩스 송창현 CEO 키노트 전체 영상> 키노트가 끝난 이후, 송창현 CEO는 부스 내에서 언론사 기자들과의 별도 Q&A 시간을 가졌다. 다음은 진행되었던 질문과 답변에 대한 요약 내용이다. Q. 발표를 통해 자율주행차 연구가 자동차 비즈니스를 위한 것이 아니라고 했다. 그간에는 카쉐어링이나 스마트 모빌리티 사업을 하는 것이 아니냐는 예측이 있었다. 이에 대해 명확히 확인 부탁드린다. A. 네이버랩스의 관점은 결국 생활환경지능의 가치를 사람들이 누리도록 하는 것에 맞춰져 있다. 자율주행차 연구도 마찬가지이다. 사용자들이 실제 삶에서 그 가치를 느낄 수 있는 수준으로 기술을 고도화하는 것이 먼저이다. 그 과정에서 서비스를 위한 기술 적용 방식은 계속 고민할 것이다. Q. 주행 테스트를 공개하실 계획이 있는가? A. 아직까지 계획은 없다. 어느 정도 유의미한 데이터 축적에 도달했을 때 공개할 예정이다. Q. 헬스케어나 바이오 분야 진출에 관한 얘기도 있었는데, 혹시 올해 DEVIEW에 이와 관련한 기술을 공개할 계획이 있는지? A. 헬스케어 역시 중요한 domain이지만 지금은 선택과 집중의 단계이다. 현재 네이버랩스는 space & mobility 분야에 집중하는 것으로 방향을 잡았다. Q. 현재 딥러닝을 활용해 자율주행 기술을 고도화하고 있다고 했다. 딥러닝을 활용했을 때의 장점은 어떤 것이 있나? A. 예전 같으면 blind spot detection을 할 때 전통적인 computer vision algorithm을 사용했을 것이다. 이런 방식만으로는 정확도를 높이기 어렵다. 하지만 딥러닝을 통해 판단의 정확성이 비약적으로 상승했다. 수년간 연구한 결과가 단 몇 달 만에 도출되어 나오기도 한다. Q. 네이버 자율주행차가 현재 도심의 도로를 달리고 있는가? A. 실제 도로를 달리고 있다. 현재는 어느 정도 한정된 루트로 테스트 중이다. 복잡한 도로 환경을 완전히 인지하고 안전하게 주행할 수 있기까지는 좀 더 시간이 걸릴 것으로 본다. Q. IVI 관련해, 작년 DEVIEW에서 발표한 AMICA와의 접목은 많아 보이지 않는다. 앞으로 어떤 식으로 발전해 나갈 계획인가? A. 네이버랩스 IVI의 음성 인터페이스는 향후 클로바와 협업해 발전시켜 나갈 것이다. 지금은 한정된 상황에서 아주 특화된 부분만 적용되어 있다. 앞으로 더 많은 상황에 대응할 수 있게 바꿔 나갈 것이다. Q. 앞서 3D 기술 기업 에피폴라 인수가 있었다. 올해 투자 계획은 어떻게 되는지? 혹시 고민하고 있는 업체가 있는지? A. 지금 이 자리에서 바로 공개할 내용은 없지만, 투자에 대한 부분은 늘 검토하고 있다.

2017.04.04 원충렬 / PDX

네이버랩스, 2017 서울모터쇼에서 space & mobility 기반 연구성과 공개

네이버랩스는 ‘2017 서울모터쇼’ 프레스데이에서 자율주행, 커넥티드 카, 3차원 실내지도 등 생활환경지능 기반 기술을 공개했다. 또한 향후 '공간(space)'과 '이동(mobility)'에 대한 인텔리전스 연구에 본격적으로 집중하겠다는 기술방향성과 IVI 플랫폼의 공개 계획을 밝혔다. 이 자리는 작년 ‘DEVIEW 2016’에서 공개했던 기술들의 발전 경과를 보여주는 한편, 올해 1월 별도 법인으로 독립한 네이버랩스가 처음으로 회사의 역량과 비전을 공개했다는 의미가 있다. 송창현 CEO는 "이제 computing은 PC와 모바일이라는 제한적 환경을 벗어나, 본격적으로 다양한 디바이스와 생활 속으로 스며들기 시작했으며, 그렇기 때문에 우리는 특정한 인터페이스에 국한되는 것이 아니라 실제 삶의 다양한 환경에서 적용이 가능한 자연스러운 인터페이스가 필요했다. 그래서 나온 개념이 바로 ambient intelligence, 즉 생활환경지능이다. 네이버랩스가 추구하는 기술의 방향성인 생활환경지능은 온라인을 넘어서 실생활에서 상황과 환경을 인지하고 이해하여 필요한 정보를 추천/예측해 적시에 제공해주는 기술을 의미한다"고 밝히며 "특히 우리는 사용자들의 발길이 닿는 무수한 공간과 이동 경로를 데이터화 하며, 그들의 삶을 방해하지 않고 자연스럽게 스며드는 솔루션을 제공하기 위해 space & mobility 분야에 집중하고자 한다"고 설명했다. 이를 위해 네이버랩스는 차세대 이동 솔루션을 연구하고 AI와 로봇기술의 융합을 통한 생활공간의 정보화를 지속하는 한편, 새로 개발 중인 IVI 플랫폼을 오픈해 더 많은 파트너와의 협력을 넓혀가는 방식으로 기술과 서비스의 선순환을 이루겠다는 비전을 제시했다. 자율주행차, 인지 분야에 집중해 자율주행 기술 고도화 나서 <네이버랩스 자율주행 차량> 네이버랩스는 ‘인지’ 분야에 주목해 자율주행 기술을 연구 개발하고 있다. '인지'는 정밀한 자기 위치, 사물의 인식 및 분류, 상황의 판단 등 자율주행에서 핵심적인 감각기관과 두뇌의 역할로, 정보와 데이터의 분석 처리가 중요하다. 송창현 CEO는 "네이버랩스가 이미 역량을 키워왔던 비전 기술과 딥러닝 기술을 바탕으로 자율주행 분야의 R&D 속도를 높이고 있다”며, “특히 기계학습 기반의 기술을 실제 차량 주행에 접목시키는 다양한 실험을 통해, 경제적이고도 정확도가 높은 인지 기술을 개발해 나가는 것이 네이버랩스만의 차별화된 경쟁력”이라고 말했다. <네이버랩스 자율주행차 센서 구조> 이번 모터쇼에서 네이버랩스는 딥러닝 기반의 이미지 인식 기술을 통해 도로 위의 사물과 위치를 정밀하게 파악해 차량의 경로를 계획하고, 측후방 영상에서 빈 공간을 판단해 차선 변경 가능 여부를 확인하는 등의 기술을 선보였다. <딥러닝 기반 차종보행자 인식 기술과 측후방 차선 변경 가능 판단 기술> 네이버랩스는, 자율주행 기술 발전은 실제 도로 주행을 통한 경험과 데이터를 쌓는 것이 필수적이기 때문에 실 주행 거리를 늘려가며 미래 이동성 개선과 도로 정보화 연구를 지속하는 동시에, 다양한 파트너와의 협업을 통해 기술 수준을 더욱 높여 나갈 계획이라 밝혔다. 3차원 정밀지도 기술을 구현한 M1 로봇 시연 <3D 실내정밀지도 제작 로봇 M1> 네이버랩스는 이번 서울모터쇼에서, 도로와 구조물로 이뤄진 모형 전시공간을 마련하고, 3차원 실내 정밀지도 제작 로봇인 ‘M1’이 자율주행으로 해당 공간을 이동하며 3D 정밀지도를 만드는 과정을 시연했다. M1은 ▲real-time 3D SLAM ▲자율주행 ▲photo-realistic 3D map generation 등을 활용해, 레이저로 스캔한 무수히 많은 점 데이터를 mesh라 불리는 3차원 공간 데이터로 변환, 카메라로 촬영한 이미지를 붙여 3차원 지도를 만들어낸다. Real-time 3D SLAM : 레이저 스캐너를 이용하여 실시간으로 3차원 실내 지도를 만들고 지도 상에서 로봇의 위치를 파악하는 기술 Photo-realistic 3D map generation : 로봇이 3차원 레이저 스캐너와 360 카메라로 수집한 데이터를 기반으로 3차원 실내 지도를 만들어내는 기술 <3D 실내정밀지도 제작과정> 네이버랩스는 GPS가 잡히지 않는 실내공간의 디지털화를 위해 로봇 M1을 개발했으며, M1으로 제작한 3D 정밀지도를 통해 대규모 실내공간에서도 현재 위치를 간단히 파악하고 길 찾기가 가능해지면, 부동산 정보·게임·광고를 비롯한 여러 공간 기반 서비스들의 핵심 플랫폼으로 활용될 수 있을 것이라고 덧붙였다. 일반 차량을 '커넥티드 카'로 변신시키는 IVI 플랫폼 공개 <네이버랩스에서 개발한 IVI 헤드유닛 디스플레이> 네이버랩스는 카쉐어링 및 자율주행 시대에 맞춰 차량 내 개인 환경에 최적화된 인포테인먼트인 IVI 플랫폼과 이를 구현한 시제품을 공개했다. IVI는 in-vehicle infotainment의 약자로, 차 안에서 즐길 수 있는 엔터테인먼트와 정보 시스템을 총칭하는 용어로, 음악이나 오디오 콘텐츠 등과 같은 엔터테인먼트 기능과 내비게이션, 모바일 기기와 연동된 다양한 서비스를 제공하는 기기 또는 기술을 말한다.   <네이버랩스 IVI 드라이빙 런처 화면> 이번 모터쇼에서 소개한 네이버랩스의 IVI는 주의분산이 최소화된 UX와 절제된 음성 인터페이스로 운전 환경에 적합하도록 설계되었으며, 네이버 로그인을 통해 스마트폰에서 사용하던 서비스를 어느 차량에서나 동일한 경험으로 연결해준다. 네이버 지도와 연계된 내비게이션으로 저장해 놓은 목적지로 바로 길안내를 받을 수 있으며, 날씨·캘린더·뮤직·라디오 등 상황에 맞는 콘텐츠 활용이 가능하다. 또한 AI기술 적용을 통해 운전자의 음성을 인식해, 목적지 검색과 길 안내를 더 안전하고 편리하게 사용할 수 있도록 도와준다. 네이버랩스는 운전자의 환경과 안전에 초점을 맞추고, 차량 정보와 연결된 IVI 플랫폼을 다양한 파트너들과 함께 지속적으로 개선 발전시킬 계획이다. 네이버랩스는 이번 서울모터쇼를 통해 발표한 space & mobility 분야의 다양한 미래 기술들을 실제 삶에 접목해 나가며, 실제 삶에서 누릴 수 있는 유용하고 가치 있는 서비스로 완성시켜 나갈 계획이라고 강조했다.  

2017.03.30 원충렬 / PDX