삼성전자, “내 손안의 AI 대세 될 것”

삼성은 온디바이스 AI에 주목하고 있다.

가 +
가 -

삼성전자가 모바일 기기 안에서 인공지능(AI) 연산을 처리하는 ‘온디바이스(on-device)’ 방식의 AI에 주목하고 있다. 서버에서 데이터를 처리하는 클라우드 방식의 AI보다 개인화된 정보를 처리하는 데 유리하고, 네트워크가 연결되지 않아도 언제든 이용할 수 있다는 이점 때문이다.

심은수 삼성전자 AI&소프트웨어 리서치 센터장은 7월2일 서울 코엑스에서 열린 ‘엔비디아 AI 컨퍼런스 2019’에서 기조연설자로 나서 온디바이스 AI에 대해 강조했다. 또 향후 온디바이스 방식을 비롯해 엣지 서버, 클라우드 등 다양한 방식으로 AI가 구동됨에 따라 각각의 특성을 잘 활용한 AI 전략이 필요하다고 짚었다.

| 심은수 삼성전자 AI&소프트웨어 리서치 센터장

심은수 센터장은 “영화 ‘그녀(Her)’에 나오는 AI 비서가 저희가 목표로 하는 AI 수준이며, 이를 위해서는 내가 보고 듣는 모든 걸 AI 시스템이 공유해야 하는데 디바이스 안에서 데이터가 처리돼야 편하다”라며 “내 손안에 있는 AI가 믿을 수 있는 AI가 될 것”이라고 말했다. 개인 프라이버시 문제, 네트워크 연결 여부 측면에서 온디바이스 방식 AI가 개인정보를 긴밀하게 처리하는 데 이점이 있다는 설명이다.

삼성전자는 최근 온디바이스 AI 방식의 일환인 NPU(신경망처리장치)에 대한 투자를 늘리고 있다. NPU는 AI 전용 칩셋으로 딥러닝 알고리즘 연산에 최적화됐다. 삼성전자는 지난해 11월 NPU를 갖춘 모바일 AP ‘엑시노스9820’을 공개했으며, 지난 3월 출시한 ‘갤럭시S10’에 탑재했다. 2017년 NPU가 적용된 모바일 전용 AI 칩셋을 선보인 화웨이나 애플에 비해 다소 늦은 행보지만, 삼성전자는 지난 6월 독자적인 NPU 기술 육성을 통해 2030년까지 시스템 반도체 분야에서 세계 1위를 달성하겠다고 밝힌 바 있다.

이에 대해 심은수 센터장은 “삼성전자 NPU는 한국 회사가 백지 상태에서 프로세서 아키텍쳐 개발해 실제 글로벌 시장에 출시한 매우 드문 사례”라며 “프로세서 하면 인텔, 엔비디아, 퀄컴 등 해외 기업이 주도하는 분야지만, 삼성전자는 AI 시대 필요한 새로운 프로세서 아키텍쳐를 독자적으로 개발해 적용하고 있다”라고 말했다.

삼성전자 종합기술원은 온디바이스 AI 방식으로 구현한 다양한 애플리케이션을 개발하고 있다. 심은수 센터장은 먼저, 통역 기술을 온디바이스 AI 방식으로 개발 중이라고 밝혔다. 네트워크 환경이 안 좋은 해외에서 실질적으로 통역 기능을 쓸 수 있도록 하기 위해서다. 심은수 센터장은 자사가 개발한 온디바이스 방식의 통역 기술이 경쟁사와 비교했을 때도 높은 정확도를 나타냈다고 밝혔다.

또 얼굴인식 역시 삼성전자가 업계 최초로 온디바이스 형태로 탑재했다고 강조했다. 심은수 센터장은 현재 사진, 실리콘 마스크 등을 이용해 얼굴인증을 뚫으려는 시도에 대해 대응하기 위해 노력 중이며, 쉽게 뚫리지는 않는다고 전했다.

첨단 운전자 보조시스템 ADAS(Advanced Driver Assistance Systems) 등 자율주행 분야에 대한 온디바이스 AI 연구도 진행 중이다.

전력 소모 문제 역시 온디바이스 AI 기술 개발의 주요 이슈 중 하나다. 서버 기반의 AI는 전력 소모와 관련해 상대적으로 자유롭지만, 모바일 기기에서 AI 연산으로 인해 전력 소모가 높을 경우 치명적이기 때문이다. 심은수 센터장은 이러한 문제를 해결할 기술인 온디바이스 AI 경량화 알고리즘에 대해 소개했다. 삼성전자 종합기술원에서 개발한 이 기술은 기존 32비트로 표현되는 서버용 딥러닝 데이터를 8비트 수준으로 압축해 전력 소모량을 줄인다. 심은수 센터장은 딥러닝 데이터를 8비트 수준으로 줄여도 CNN(나선형신경망) 계열 뉴럴 네트워크에서 정확도 손실이 거의 없다고 밝혔다.

이날 삼성전자는 자사 뉴스룸을 통해 컴퓨터 비전 및 딥러닝 컨퍼런스 ‘CVPR 2019’에서 발표한 ‘양자화 구간 학습기술(QIL, Quantization Interval Learning)’을 온디바이스 AI를 뒷받침할 기술로 소개했다. 전체 데이터 중 의미 있는 데이터 범위를 학습을 거쳐 결정해 4비트 이하로 연산해도 높은 정확도를 얻을 수 있다는 설명이다. 또 데이터 크기를 줄임으로써 AI 연산 속도도 높일 수 있다고 밝혔다.

심은수 센터장은 메모리 대역폭 제한 문제도 짚었다. 메모리가 프로세서 발전 속도를 따라가지 못해 데이터가 메모리와 프로세서를 오가는 과정에서 병목현상이 발생한다는 얘기다. 이는 CPU, 메모리, 프로그램 구조로 나뉘어 나열된 명령을 순차적으로 수행하는 폰 노이만 구조의 근본적인 한계점으로 지적된다. 심은수 센터장은 프로세서를 메모리 가까이 두거나 메모리 안에 프로세서를 붙이는 등 폰 노이만 구조를 탈피한 알고리즘 혁신이 필요하다고 주장했다.

또한, 온디바이스 학습의 문제점으로 모든 학습 데이터를 가져올 수 없다는 점, 새로운 데이터를 학습시키면 이전에 학습한 내용을 잊어버리는 경향이 있다는 점 등을 짚었다.

심은수 센터장은 “많은 기기들이 온디바이스 AI 형태를 가지게 될 것이며 디바이스, 서버, 클라우드 등 다양한 방식으로 처리되는 AI를 잘 활용하는 전략이 필요하다”라고 강조했다.

네티즌의견(총 0개)