[블로터11th] 알아두면 쓸데있는 신기한 인공지능 50선

가 +
가 -

영화 '그녀(her)'의 한 장면. (사진=예고편 갈무리)

영화 ‘그녀(her)’의 한 장면. (사진=예고편 갈무리)

‘인공지능'(AI)이라는 말을 들으면 무엇이 가장 먼저 생각나시나요? 영화 ‘아이언맨’의 ‘자비스’, ‘그녀(Her)’의 ‘사만다’ 또는 이세돌 구단과의 경쟁으로 세간을 떠들썩하게 했던 ‘알파고’ 등 여러 모습을 떠올리실 것 같습니다. 다만, 인공지능을 얘기할 때 예전과 큰 변화가 있다면, 이제 더는 영화 속 혹은 상상 속 무언가로 생각하지 않는다는 점 아닐까요.

그렇습니다. 인공지능은 이제 우리 삶에 다가왔습니다. 변화는 가히 순식간이었던 것 같습니다. 기술의 진보를 거쳐 인공지능은 우리 생활 속에 녹아들어와 삶을 편하게 하기도 하고, 한편으로 인류가 자신의 미래를 걱정하게 만들기도 합니다. 이 모든 것은 여전히 현재 진행형입니다.

인공지능 기술은 데이터만 확보할 수 있다면 다양한 분야에서 널리 활용해 볼 수 있습니다. (쉬운 건 아니겠지만요.) 이런 생각이 드니 문득 인공지능이 지금, 과연 어떤 분야에 쓰이고 있는지 궁금해졌습니다. 여러 자료를 통해 인공지능이 쓰인 다양한 사례들을 찾아봤습니다. 많이 들어본 것도 있고, 처음 보는 신기한 분야도 있을 듯합니다. 추가 사례 있으면 이메일(kelee@bloter.net)로 알려주시기 바랍니다. 후속 기사로 소개하겠습니다.

1. 바둑 기사

바둑 경기에는 10의 170승에 이르는 경우의 수가 있는데, 이런 바둑 특유의 복잡성은 오랫동안 인공지능의 도전 과제였다. ‘알파고’는 구글 딥마인드의 인공지능 바둑 프로그램이다. 알파고는 ‘지도학습’과 ‘강화학습’의 강점을 결합한 기계학습 기법을 사용해 바둑을 ‘열공’하고 2016년 3월 이세돌 9단의 대국에 등장했다. 이세돌 9단이 이길 거라는 대다수의 예상을 깨고 알파고는 4대1로 대승을 거뒀다. 이 사건은 사람들에게 충격과 함께 인공지능에 새롭게 관심을 가지는 계기를 주었다.

알파고와 대국 중인 이세돌 9단 (출처=구글)

알파고와 대국 중인 이세돌 9단 (출처=구글)

2. 스피커

스마트폰은 화면을 클릭할 수 있는 터치 조작화면(UI)을 등장시켰다. 그리고 뒤를 이어 차세대 UI 플랫폼으로 ‘음성’이 주목되면서, 인공지능 알고리즘을 이용해 사용자와 음성으로 의사소통하는 AI 스피커가 속속들이 등장하고 있다. AI 스피커의 핵심은 간단한 질문을 던지면 사람의 말을 알아듣고 그에 맞는 대답을 해주는 것이다. 현재 외국 AI 스피커로는 아마존 ‘에코’를 시작으로 구글의 ‘구글 홈’, 애플 ‘홈팟’, 마이크로소프트 ‘인보크’가 있다. 국내에서는 SKT의 ‘누구’, KT ‘기가지니’, 네이버 ‘웨이브’ 그리고 최근 합류한 카카오의 ‘카카오미니’가 있다.

 

3. 자살 예방 상담사

미국의 문자메시지 기반 24시간 위기 상담 서비스 ‘크라이시스 텍스트 라인(CTL)’은 몰려드는 상담 문의를 한정된 인력으로 모두 대응하기 어려운 점을 극복하기 위해 인공지능의 힘을 빌렸다. 대화 내용, 시간, 발신자 위치, 나이, 성별, 생년월일, 이용자 후기 등이 포함된 3300만건에 이르는 상담 문자를 인공지능으로 분석했다. 이 분석으로 고위험군을 먼저 가려내고 더 위급한 순간을 판단해 상담에 효율적으로 응대할 수 있는 시스템을 만들었다.

물론 모든 판단을 알고리즘에 맡기는 것은 섣부르다는 의견도 있었다. CTL은 인공지능 상담사를 이용해 ‘이용자의 의견과 반응을 분석해 데이터를 쌓아 구조 확률을 높이는 것’을 목적으로 둔다. 장난이나 단순 심리 상담에까지 분배되던 인력 자원을 줄이고, 위험한 상황에 놓인 사람에게 먼저 상담사가 연결되는 확률을 높이는 데 알고리즘을 활용한다.

▲ 크라이시스 텍스트 라인(CTL) 소개 영상

4. 오이 분류

자동차 임베디드 시스템 디자이너였던 마코토 코이케 씨는 일을 그만두고 부모님을 도와 오이농장 일을 시작했다. 오이에 정성을 다 쏟아붓기도 힘든데, 그보다는 오이를 9등급으로 분류하는 일이 손도 많이 가고 시간도 더 잡아먹었다. 알파고와 이세돌 9단의 대국에서 아이디어를 얻은 마코토 씨는 딥러닝 기반의 오이 자동분류 시스템을 만들었다. 컨트롤러가 카메라로 사진을 찍으면, 1단계로 분류기가 수많은 사진 가운데 오이 사진만 걸러내고, 2단계에선 1단계의 오이 사진을 딥러닝 기술을 이용해 9등급으로 분류했다. 시험용 이미지로 실행한 결과 정확도는 95% 이상이었다. 이 외 장기간 훈련이나 대용량 컴퓨팅 자원을 요구하는 숙제도 있었으나, 이는 인공지능 농사꾼의 탄생을 보여준 한 사례로 꼽힌다.

오이 분류 알고리즘. 왜곡되거나 비뚤어진 오이는 품질이 낮은 제품으로 평가된다. (사진=구글 블로그)

오이 분류 알고리즘. 왜곡되거나 비뚤어진 오이는 품질이 낮은 제품으로 평가된다. (사진=구글 블로그)

▲ 마코토 코이케씨가 만든 구글 텐서플로우 기반 오이 분류기 

5. 승무원

KLM은 인공지능 채팅 로봇 (챗봇)을 3월말 도입했다. 공개한 첫 달에만 11만5천여명의 고객이 사용했다. 챗봇은 많은 데이터, 딥러닝을 통해 질문에 간단한 답을 자동으로 답변해준다. 이 인공지능 승무원은 1년 365일, 24시간 쉬지 않고 고객들의 물음에 일일이 답할 수 있었다. 여행 일정 확인부터 체크인 알림, 항공기 발권, 예약 변경 관련 응대 등 다양한 일을 맡아 수행했다.

▲ KLM 챗봇

6. 아케이드 게이머

‘팩맨’ 게임은 ‘유령’을 피해 도망 다니면서 ‘먹이’를 다 먹으면 이긴다. 지금까지 최고점은 266,330점이었다. 그런데 그 기록을 깬 이가 등장했다. 사람이 아니다. 마이크로소프트 인공지능 시스템 ‘말루바’는 999,999점으로 팩맨 게임에서 만점을 찍었다. 말루바는 ‘분할정복기법’을 사용해 게임을 150개의 작은 단위(에이전트)로 쪼갰다. 단위별로 먹이를 찾거나 유령의 행동을 학습했고, 게임 동작 패턴을 학습했다. 그리고 다시 이를 합쳐 게임을 정복하는 데 활용했다. 이를 연구한 연구진은 이런 방식으로 아케이드 게임을 깨는 걸 넘어, 협상 확률을 강화하는 알고리즘 등에 활용할 수 있을 것으로 예상한다.

7. 흑백 사진을 컬러로

구글이 인공지능을 기술을 사진의 영역에 적용해 흑백 사진을 컬러 사진으로 바꾸는 기술을 선보였다. 일본 와세다대학 연구원인 사토시 이즈카, 에드가 시모 세라, 히로시 이시가와가 공동저자로 발표했다. 이 기술에는 딥러닝 기법의 하나인 ‘나선형 신경망’ 기술이 쓰였다. 컴퓨터가 사진에서 점, 선, 면 정보를 분석해 사진 속 부분 정보를 기존 사물 정보와 합쳐 색깔을 입히는 방식이다. 컴퓨터가 흑백 사진이 해가 뜨는 아침에 촬영됐다는 정보와 사진을 찍은 곳이 햇살을 받은 산봉우리라는 정보를 뽑아내면, 이 둘을 결합해 일출 때의 산을 재현할 수 있다. 이런 식으로 알고리즘이 사진을 변형하고 사람의 개입은 전혀 없다.

8. 쇼핑 도우미

아웃도어 브랜드 노스페이스는 IBM 인공지능 왓슨 기술을 기반으로 앱을 개발해 ‘플루이드 리테일’이라는 서비스를 선보였다. 플루이드 리테일은 소비자들이 온라인 쇼핑 경험에서 추출되는 데이터를 분석·학습·인지해 유통기업들에게 고객의 쇼핑 참여도를 높이거나 쇼핑 전환율을 개선할 수 있는 서비스를 제공한다. 예를 들어 고객이 ‘14일 동안 배낭여행 준비하려고 하는데 뭘 가져가야 해?’라고 물으면 이를 분석해 도움 될 수 있는 상품과 조언을 제공하는 식이다. 지니 로메티 IBM 회장이 2014년 미국 유통업계의 가장 큰 행사인 NRF(National Retail Federation)에서 플루이드 리테일 데모를 발표했다.

▲ IBM 왓슨을 적용한 노스페이스 ‘플루이드 리테일’ 데모

9. 보험상담사

다국적 생명보험사 AIA생명 한국지점이 인공지능 콜센터 서비스를 위해 ‘AIA생명 고객서비스 업무 위탁 사업’을 2017년 7월부터 진행했다. 인공지능 상담사가 학습한 대화를 기반으로 고객과 대화를 나누고 계약정보를 확인, 계약을 확정하는 음성서비스를 제공한다. 콜센터는 ‘AIA온’이란 채팅 기반 고객 상담 챗봇과 전화로 응대하는 로보텔러로 구분돼 운영된다. 고객이 자주 하는 문의는 채팅 형태 로봇이 1차 상담을 진행한다. 24시간 365일 고객을 기다리며, 대기시간 없이 이용할 수 있다.

Flickr.BryceJohnson.CC BY 2.0

Flickr.BryceJohnson.CC BY 2.0

10. 돌고래 언어 해석

스웨덴 스타트업 가비가이AB가 KTH 왕립공과대학과 함께 돌고래 언어를 해독하는 4년 프로젝트에 돌입했다. 이론상 돌고래 언어를 해석하는 것은 외국어를 해석하는 것과 다르지 않아서, 가비가이AB는 돌고래 언어 데이터를 최대한 많이 모아 외국어 해석과 같은 방법으로 돌고래 언어를 해석하려 하고 있다. 이들의 계획대로라면 2021년께 돌고래 말을 해석해 들을 수 있다.

Flickr.ume-y.CC BY 2.0

Flickr.ume-y.CC BY 2.0

11. 그림 도우미

구글의 ‘오토드로우’ 서비스는 펜으로 서툴게 그림을 그려도 멋진 그림으로 탈바꿈해주는 서비스이다. 그림을 그리면 웹사이트 상단에 인공지능이 사용자 의도를 짐작해 다양한 추천 그림을 제시한다. 특별히 추천하는 그림에는 노란색 별 표시가 뜬다. 추천 그림의 데이터베이스는 구글은 디자이너 에린 버트너, 일러스트레이터 줄리아 멜로그라나 등 아티스트 7명이 협업해 만들었다. 그림체도 아티스트별로 여러 개로 나오는데, 마음에 드는 것을 선택해 사용할 수 있다. 그린 그림은 다운로드도 가능하다.

오토드로우와 협업한 아티스트들이 각자의 스타일로 그린 여러 가지 사물 그림

오토드로우와 협업한 아티스트들이 각자의 스타일로 그린 여러 가지 사물 그림(사진=구글 블로그 갈무리)

12. 포르노 비평가

포르노를 학습하고 해석하는 인공지능이 공개됐다. ‘얼빠진 해커톤’에서 브라이언 무어가 만든 프로젝트얼빠진 해커톤은 하루 동안 무엇이든 가치 없는 프로젝트를 만드는 소프트웨어 개발 행사다.close다. ‘로봇 포르노 중독자’라고 이름 붙여진 이 로봇은 마이크로소프트의 인공지능 프로그램을 활용해 만들어졌다. ‘컴퓨터비전 API’를 사용해 자신의 눈으로 세상을 보는데, 이 기술로 인터넷상의 포르노를 보고 해석을 내놓는다. 포르노봇이 포르노를 바라보는 시선은 트위터 계정을 통해 공유되는데, 우리가 보는 시선이랑 다른 얼토당토않은 해석을 내놓기도 한다. 하루 10회 정도 트윗을 게시하고 있다.

마이크로소프트의 컴퓨터 비전과 포르노가 만나면 어떻게 될까.

마이크로소프트의 컴퓨터 비전과 포르노가 만나면 어떻게 될까. (사진: ‘로봇 포르노 중독자’ 소개 영상 갈무리)

13. 멸종위기동물 보호

멸종위기동물 개체 수를 파악하고 추적하는 작업은 쉬운 일이 아니다. 시간·비용이 만만찮게 들고 위험하기도 하다. 머독대학교 아만다 호지슨 박사는 멸종위기동물인 바다소를 찾는 데 인공지능을 활용했다. 그는 퀸즐랜드 공과대학의 프레더릭 메어 박사와 손잡고 구글 텐서플로우를 활용해 바다소를 자동으로 식별하는 탐지기를 개발했다. 우선 드론으로 바다 항공사진을 찍고, 인공지능을 활용해 사진 속 바다소를 자동 판별했다. 탐지기는 초기 버전이었지만 바다소의 80%를 식별했다. 이는 나아가 흑동고래 등 다른 해양 포유동물에 적용할 수도 있고, 크게는 멸종위기 동물의 관리·보호에도 도움을 줄 수 있을 것으로 예상한다.

바다소목에 속하는 ‘듀공’, flickr, flickker photos, CC BY

바다소목에 속하는 ‘듀공’, flickr, flickker photos, CC BY

바다를 찍은 항공 사진. 바다소가 어디 있는지 찾아보기 어렵다. (사진=구글 블로그)

바다를 찍은 항공사진. 바다소가 어디 있는지 찾아보기 어렵다. (사진=구글 블로그)

동그라미 표시 된 곳에 바다소가 있다. 이런 항공 사진이 수만장이다. 인공지능을 이용해 사람이 식별하지 못하는 바다소를 찾아낸다. (사진=구글 블로그)

동그라미 표시 된 곳에 바다소가 있다. 이런 항공사진이 수만장이다. 인공지능을 이용해 사람이 식별하지 못하는 바다소를 찾아낸다. (사진=구글 블로그)

14. 변호사

2016년 미국 대형 법무법인 베이커앤호스테틀러가 파산 분야에 ‘로스’라는 이름의 인공지능 변호사를 배치했다. 스타트업 로스인텔리전스가 만든 인공지능으로, IBM 왓슨을 기반으로 한다. 최초 인공지능 변호사가 하는 일은 판례 수천건을 검색해 베이커앤호스테틀러가 수임한 사건에 도움이 될 만한 것들을 고르는 일이다. 주로 초보 변호사들이 하던 일을 인공지능이 맡아서 하게 된 것이다. 로스는 단순한 검색 도구를 넘어 질문을 받고 관련 법률 사례를 분석해 적합한 답변을 주기도 한다.

▲ 인공지능 변호사 ‘로스’

15. 법률상담 서비스

대학생이 만든 인공지능 법률상담 서비스도 있다. 법률 2015년 스탠퍼드대학에 다니던 19살 조슈아 브라우더는 주차 딱지를 떼이고도 이를 취소하는 과정에서 변호사 비용이 더 비싸고 오래 걸린다는 사실에 인공지능 변호사 채팅봇 ‘두낫페이’를 만들었다. 뉴욕, 런던에서 서비스를 시작해 21개월 동안 25만건 상담에서 16만건 주차 딱지를 취소했다. 인공지능 상담으로 딱지 약 64%, 약 400만달러를 취소시킨 것이다. 인공지능으로 오랜 시간과 비용이 드는 일을 간편하게 처리한 사례로 많은 사람이 도움을 받았다.

 

두낫페이 데모 화면

두낫페이 데모 화면

두낫페이 홈페이지 갈무리

두낫페이 홈페이지 갈무리

16. 기자

기자도 인공지능에 위협을 받는다. <LA타임스>의 ‘퀘이크봇’은 로봇기자이다. <LA타임스> 기자이자 프로그래머 켄 쉬웬키가 2012년 개발한 퀘이크봇은 지진이 일어나는 것을 감지해 자동으로 기사를 작성한다. 지진이 일어나자마자 5분 만에 과거 지진 기록·그래픽 자료까지 첨부해 기사를 작성·전달했다. 데이터를 바탕으로 일련의 알고리즘을 거쳐 신속한 기사를 내는 것이다. 빠른 속도로 여러 건의 기사를 작성할 수 있는 것도 로봇 기자의 특징이다. <LA타임스> 외에도 <포브스>, <AP통신>, <가디언> 등이 로봇기자를 활용하고 있다.

로봇기자 ‘워드스미스’를 개발한 스타트업 오토메이티드 인사이츠(AI)의 제임스 코테키 홍보 담당자는 <한국일보>와의 인터뷰에서 “컴퓨터는 누가, 언제, 어디서, 무엇을 했는지 전할 수 있지만 왜, 어떻게 했는지를 분석하지 못한다”라며 “왜와 어떻게 했는지를 설명하는 것은 앞으로도 자동화되기 쉽지 않을 것”이라며 사람이 가능한 영역에 대한 구분을 언급했다.

Flickr.ThePeopleSpeak!.CC BY 2.0

Flickr.ThePeopleSpeak!.CC BY 2.0

17. 고문서 번역

고전 전문을 번역하는 일은 항상 인력이 부족하고 시간이 오래 걸렸다. 그러다보니 오류도 적잖았다. 다국어 자동 통·번역 지원 업체 시스트란 인터네셔널은 미래창조과학부(한국정보화진흥원) ‘2017년도 ICT 기반 공공서비스 촉진사업’에 참여해 인공지능 기반 번역기술(NMT)을 활용, 고전문헌 자동번역 시스템을 구축했다. 자동번역 대상으로 우리나라 국보 303호 ‘승정원 일기’가 선택됐다. 원문 총 3243책, 약 2억4259만자에 많은 양을 인공지능 기술을 사용해 완역 45년이 걸릴 일을 초벌 번역 도움을 주며 시기를 앞당길 예정이다.

승정원일기 겉표지 (사진= 문화재청)

승정원일기 겉표지 (사진= 문화재청)

18. 반려동물 장난감

인공지능 기반 반려동물 케어 플랫폼 ‘고미랩스’는 반려동물 장난감에 인공지능 기술을 적용했다. 인공지능 자율주행 장난감 ‘고미’는 바닥에 두기만 하면 알아서 움직인다. 자이로센서가 내장돼 반려동물의 움직임도 파악한다. 반려동물과 상호작용을 하며 놀이패턴, 견종, 나이, 성별 등을 분석, 어떻게 얼마나 움직이는지부터 건강은 어떤지 데이터를 분석해 앱으로 알려준다.

고미

▲ ‘고미’ 소개 영상

19. 사물 감별사

‘구글 I/O 2017’ 기조연설에서 순다 피아치 구글 CEO가 ‘구글 렌즈’를 소개했다. 구글 렌즈는 인공지능 컴퓨팅 능력으로 이미지 기반 정보를 습득한다. 사물을 보이면 이를 이해하고 정보를 전달한다. 카메라에 꽃을 찍으면 무슨 꽃인지 알려주고, 가게를 찍으면 연동된 가게의 정보가 뜬다. 구글은 구글 렌즈 기능을 구글 어시스턴트와 구글 포토에 우선 도입할 예정이다. 점차 다른 제품에도 적용할 계획이라고 했지만 정확한 서비스 제공 시기는 아직 명확하지 않다.

구글 어시스턴트가 카메라 속의 꽃 이름을 찾아준다.(사진=구글)

구글 어시스턴트가 카메라 속의 꽃 이름을 찾아준다.(사진=구글)

당신이 카메라로 찍고 있는 상점의 정보를 찾아주기도 한다.(사진=구글)

당신이 카메라로 찍고 있는 상점의 정보를 찾아주기도 한다.(사진=구글)

▲ 구글 I/O 2017에서 소개된 구글 렌즈

20. 대선 뉴스 큐레이터

지난 19대 대통령 선거 당시 카카오는 다음 대선 특집 페이지 메인 화면과 뉴스 섹션에 카카오 개인 맞춤형 콘텐츠 추천 인공지능 ‘루빅스’를 적용했다. 루빅스는 이용자 개개인의 콘텐츠 소비 패턴을 지속해서 기계 학습해 개인 관심사에 최적화된 콘텐츠를 자동으로 추천해준다. 루빅스 적용으로, 대선 기간 이용자의 성별, 연령대, 평소 즐겨보는 뉴스 유형 등에 따라 뉴스가 각기 다르게 노출됐고, 개인 관심사에 최적화된 뉴스를 접할 수 있게 했다.

(사진=카카오)

(사진=카카오)

21. 난민 심리치료

실리콘밸리 스타트업 ‘X2AI’는 심각한 정신적 고통을 겪는 난민을 도우려고 인공지능을 적용한 챗봇 ‘카림’을 개발했다. 카림은 자연어 처리 기술을 활용하고 상호작용을 통해 이용자 감정 상태를 지속해서 추적한다. X2AI는 이런 감정을 수치화해 알고리즘화하고 분석된 자료를 바탕으로 난민의 고민에 적절한 질문을 던지고 답변을 준다. 질문에는 취미와 같은 가벼운 것부터 시작해 깊은 감정을 입력할 수 있는 것까지 다양하게 구성된다. X2AI는 NGO와 ‘필드이노베이션팀(FIT)’을 꾸려 카림을 더 많은 난민 심리치료에 사용할 예정이다.

X2AI 회사 홈페이지 갈무리

X2AI 홈페이지 갈무리

22. CCTV

국내 인공지능 스타트업 마인드셋이 개발한 인공지능 CCTV ‘마인드아이’는 실시간으로 영상을 측정하고 원하는 상황·물체를 확인한다. 컴퓨터와 스마트폰 카메라로 사용할 수 있어 별도의 하드웨어가 필요 없다. 기존 CCTV보다 사람·사물을 찾는 시간을 절약할 수 있게 도와준다. 많은 인파 속 특정 인물을 찾거나 미아를 찾는 데 유용하게 활용할 수 있다.

광화문 촛불집회 현장(사진=마인드셋)

광화문 촛불집회 현장(사진=마인드셋)

LA공항(사진=마인드셋)

LA공항(사진=마인드셋)

▲ LA 공항에서 사용되는 마인드아이 예시

23. 영화 예고편 제작

인공지능이 인공지능을 주제로 한 영화의 예고편을 만들어 주목을 받았다. IBM 인공지능 왓슨이 100여편의 공포영화를 분석·학습하고 20세기 폭스사 SF 영화 ‘모건’의 예고편을 제작했다. 장면을 무섭게 만드는 요소, 음악과 배우의 목소리 톤, 장면 처리나 조명의 조화를 분석했다. 보통 영화 예고편 제작에만 한 달 이상의 시간이 소요되는데, 왓슨은 불과 24시간 만에 1분15초짜리 최종 예고편을 만들었다. 이는 AI가 만든 세계 최초의 영화 예고편이다.

▲ IBM 왓슨이 만든 영화 ‘모건’ 예고편

24. 경주용 차

애니메이션에서나 볼 수 있었던 인공지능 레이싱이 현실로 들어올 날이 머지않았다. 전기차 경주대회를 개최하는 포뮬러 E가 인공지능 탑재 무인 경주용 차량 ‘로보카’의 첫 디자인을 2016년 4월에 공개했다. 로보카는 드라이버가 탑승하지 않는 차량끼리 대결하는 ‘로보레이스‘에 출전했다. 드라이버가 없는 장점을 극대화해 디자인됐다. <와이어드> 보도에 따르면 드라이버가 없는 차량은 최고 시속 300km의 속도를 자랑하기도 했다.

사이클론 매그넘 (사진=타미야)

사이클론 매그넘 (사진=타미야)

허리케인 소닉 (사진=타미야)

허리케인 소닉 (사진=타미야)

25. 시각장애인의 눈

마이크로소프트의 ‘씨잉 AI’ iOS 앱은 인공지능 기술을 이용해 시각장애인에게 주변 환경, 인물, 사물, 텍스트, 이미지 등을 설명해준다. 사람을 카메라로 비추면 성별, 나이, 행동, 감정 등을 분석해 읽고 묘사해준다. 메뉴를 찍으면 메뉴를 읽어 준다. 기본 기능은 오프라인 상태에서도 사용할 수 있다. 현재는 미국 앱스토어에서만 받을 수 있다.

(사진=마이크로소프트 홈페이지 갈무리)

(사진=마이크로소프트 홈페이지 갈무리)

(사진=마이크로소프트 홈페이지 갈무리)

(사진=마이크로소프트 홈페이지 갈무리)

▲ ‘씨잉 AI’ 소개 영상

26. 명품가방 판별

미국 스타트업 ‘엔트루피‘가 개발한 애플리케이션은 명품가방을 카메라로 비추면 인공지능을 이용해 진품, 가품을 판별해준다. 카메라는 육안으로 찾기 어려운 안장이나 하자를 260배 확대해 찾아낸다. 3만여종의 핸드백과 지갑 사진을 학습한 인공지능 기술이 사용됐다. 진품 판별도 정확도는 98%에 이른다. 해당 기술은 명품가방 판별을 넘어 자동차 부품, 휴대폰, 헤드폰, 재킷, 신발 등에도 적용할 수 있을 것으로 기대된다.

(사진=엔트루피 영상 갈무리)

(사진=엔트루피 영상 갈무리)

▲ ‘엔트루피’ 소개 영상

27. 이유식 재료 선정

일본 식료품 업체 ‘큐피‘는 이유식에 좋은 재료를 고르기 위해 고민하다 인공지능 기술을 도입했다. 큐피는 매일 식재료 4-5톤을 사용하고 한 공장에서만 400개 이상의 재료를 사용한다. 그 속에서 불량을 골라내기란 사람의 힘으로는 불가능에 가까웠다. 인공지능 기술을 도입해 좋은 재료 데이터를 주입해 학습하고 이를 벗어나면 불량으로 판별해 좋은 재료 판별 정확도를 높였다. 우선은 테스트로 잘게 썬 감자에만 적용하고 있지만, 시스템이 안정화되면 범위를 확장해 다른 재료에까지 적용할 예정이다.

28. 자연재해 예측

오재호 부경대 교수팀은 인공지능 기술을 이용해 기상 정보를 바탕으로 기상 변화를 예측하는 소프트웨어 ‘알파멧’을 개발했다. 학습하는 핵심 데이터는 지형 데이터다. 산악 지형인 한국의 특성을 고려해, 관측한 정보를 기반으로 지형 데이터값을 입력해 보정한다. 알파맷은 단순 예측에서 나아가 70m 단위로 기상 상황을 파악하고 홍수부터 산사태, 해일 등 다양한 자연재해 가능성을 판단한다.

Flickr.University of Salford Press Office.CC BY 2.0

Flickr.University of Salford Press Office.CC BY 2.0

29. 매장 레이아웃 개선

가상현실(VR) 솔루션을 만드는 인컨텍스트 솔루션스는 인공지능과 VR을 조합해 매장 레이아웃을 만드는 것을 돕는다. 인컨텍스트는 5-6년 쌓인 데이터를 이용해 가상 매장 투어를 만든다. 인공지능은 데이터를 가지고 사람이 생각할 수 없는 패턴을 찾거나 오랜 시간이 걸리는 컴파일 과정을 단축한다.

(사진=인컨텍스트 솔루션스 영상 갈무리)

(사진=인컨텍스트 솔루션스 영상 갈무리)

(사진=인컨텍스트 솔루션스 영상 갈무리)

(사진=인컨텍스트 솔루션스 영상 갈무리)

▲ VR과 AI의 조합으로 매장 레이아웃 재구성

30. 워터마크 제거

구글이 사진 저작권 보호 기술인 워터마크를 인공지능으로 제거하는 논문을 블로그를 통해 공개했다. 논문은 워터마크가 가지고 있는 일관적인 적용 방식의 문제점을 다룬다. 인공지능은 워터마크가 찍힌 이미지들에서 워터마크 삭제 알고리즘을 학습한 후 이미지에서 워터마크 구성요소를 분리하는 ‘멀티 이미지 매팅’ 과정을 거친다. 인공지능은 워터마크 구성요소를 이해한 다음 이를 바탕으로 워터마크를 삭제할 수 있는 단계까지 달성한다. 이 논문이 발표되고 얼마 뒤 상업용 이미지 제공 업체 셔터스톡이 이를 무력화하는 자사 기술을 내놓았다. 하지만 연구원들은 더 정교한 알고리즘이 나오면 계속해 워터마크는 무력화될 수 있음을 시사하며 워터마크에 주기적인 변화를 주는 것이 필요하다고 말한다.

컴퓨터 알고리즘에 의해 자동으로 생성되는 왼쪽 이미지에 워터 마크가 없다. (사진=구글 블로그 갈무리)

컴퓨터 알고리즘에 의해 자동으로 생성되는 왼쪽 이미지에 워터 마크가 없다. (사진=구글 블로그 갈무리)

31. 음란물 필터

네이버가 자체 개발한 음란물 필터링 인공지능 기술 ‘네이버 엑스아이(X-eye)’는 부적절한 내용을 담은 이미지가 자사 사이트에 올라오면 24시간 365일 실시간 감지를 통해 검색 노출을 막는다. 정식 공개 전 네이버는 엄청난 양의 이미지를 형태별로 분류해 10개월 동안 인공지능을 학습시켰다. 네이버 엑스아이 최근 버전의 내부 실험 결과에 따르면, 음란물과 그렇지 않은 이미지 400만장으로 필터링을 했을 때, 98.1%의 높은 필터링 효과를 보였다. 네이버는 이를 향후 동영상에도 적용할 방침을 가지고 있다.

(사진=네이버)

(사진=네이버)

32. 꽃가루 알레르기 위험 지수 관리

기상청은 2017년 4월부터 꽃가루 알레르기 유발 위험도를 알리는 ‘꽃가루 농도위험지수’에 인공지능을 사용해 예측도를 높이기로 했다. 지난 16년간 전국 10개 지점에서 관측된 꽃가루 관측 자료를 바탕으로 인공지능을 학습시켰다. 그 결과 기존 모형에서 꽃가루 고농도 위험 예측률이 15.9%에서 69.4%로 개선된 것을 확인했다. 기상청은 인공지능 기술로 만든 시스템에서 나온 자료를 토대로, 꽃가루 발생에 중요한 요소가 식물의 개화나 결실 등에 작용하는 누적온도(적산온도)라는 점도 발견할 수 있었다.

Flickr.Matt Batchelor.CC BY 2.0

Flickr.Matt Batchelor.CC BY 2.0

33. 항만 관리

일본 국토교통성은 2017년 6월 항만 운영에 인공지능을 활용하기로 했다. 공장 출하, 도로·항만 혼잡도, 선박 도착시각 등 항만 운영에 필요한 정보를 집약해 학습한다. 해당 데이터를 바탕으로 인공지능은 컨테이너 상하선 순번, 운반 시간을 배정하고 업체에 자동으로 지시사항을 전달한다. 국토교통성은 이 같은 인공지능 도입으로 화물 작업 시간을 줄이고 국가 경쟁력을 키우는 데 활용할 예정이다.

Flickr.martienbrander.CC BY 2.0

Flickr.martienbrander.CC BY 2.0

34. 상어 감지

호주 시드니 공대와 상업용 무인항공기 업체 리틀 리퍼는 호주 해변에서 상어를 감지하는 데 인공지능을 갖춘 드론을 사용한다. 알고리즘을 학습시키기 위해 누구나 사용할 수 있게 허락된 상어 항공 영상을 이용한다. 해양 생물, 사람들, 보트는 이 과정에서 구분되고 실시간으로 상어를 태깅한다. 사람이 항공 영상으로 상어를 감지하면 정확성이 20-30%이지만, 인공지능 드론을 사용하면 정확성이 90%까지 올라간다.

호주는 미국 다음으로 상어로 인한 인명 피해가 큰 나라다. 인공지능 드론을 사용해 빠르게 감지하고 경고를 알려 생명을 구하는 데 사용할 수 있다. 리틀 리퍼는 상어를 쫓을 수 있는 전기 방어 체계도 개발 중이다.

(사진=리틀 리퍼 홈페이지 갈무리)

(사진=리틀 리퍼 홈페이지 갈무리)

▲ ‘리틀 리퍼’의 상어 감지 드론

35. 폐기물 분류

행정안전부는 ‘인공지능 객체 인식 기반 대형 생활 폐기물 처리시스템 구축 사업’을 추진 중이다. 대형 생활 폐기물을 스마트폰으로 찍으면 학습된 인공지능이 자동으로 폐기물을 인식하고 분류해 요금을 알려준다. 주민센터를 방문해 신청서를 작성하고 신고하던 절차를 줄였다. 서울시 은평구를 대상으로 시범 사업을 한 뒤, 보완 과정을 거쳐 지자체 전체로 확대할 계획이다.

(사진=행정안전부 제공)

(사진=행정안전부 제공)

36. 치매 예측

캐나다 맥길대학 정신건강연구소 산하 ‘중개신경영상랩’ 연구팀은 치매 예측에 인공지능 기술을 사용했다. 연구팀은 ‘알츠하이머병 신경영상 이니셔티브(ADNI)’가 가지고 있는 ‘경도인지장애(MCI)’ 환자의 PET(양전자방출단층촬영) 자료를 인공지능에 학습시켰다. 이 과정으로 치매가 발생하기 약 2년 전에 치매를 예측할 수 있는 알고리즘을 만들었는데 그 정확도는 84%에 이른다. 나아가 이 연구 결과는 치매 환자를 조기 관리하고 치료 연구를 가속할 수 있는 바탕을 마련할 것으로 기대받고 있다.

연구에 쓰인 스캔 사진 (사진=맥길대학 홈페이지)

연구에 쓰인 스캔 사진 (사진=맥길대학 홈페이지)

37. 심정지 예측

전세계 환자 1천명 중 5명 꼴로 심정지가 발생한다. 심정지를 미리 알아낼 수 있다면 사고 예방에 효과적일 것이다. 국내에서 이 예측에 인공지능을 사용하는 움직임을 보이고 있다. 인공지능에 호흡수, 심장박동수, 산소포화도, 혈압을 포함함 약 7가지 데이터를 학습시킨다. 이 데이터를 바탕으로 자동으로 계산하고 심정지 가능성을 예측한다. 사람의 경우 똑같은 데이터를 가지고 심정지가 일어나기 약 30분 전에 예측할 수 있지만, 인공지능으로 예측할 경우 약 24시간 전에 알아낼 수 있다. 예측 정확도는 70% 이상이다.

Flickr.Joyce Kaes.CC BY 2.0

Flickr.Joyce Kaes.CC BY 2.0

38. 작곡

구글의 ‘마젠타 프로젝트’는 인공지능을 학습해 기계가 예술을 창조할 수 있는지 알아보는 프로젝트다. 이 프로젝트 중 ‘엔신스’는 음악 분야에 특화된 프로젝트다. 1천여개의 악기, 30만개 음이 담긴 데이터베이스를 바탕으로 인공지능을 학습해 새로운 소리·음악을 만든다. 독특한 악기 조합이나 음을 만들기도 한다. 엔신스는 단순한 음 합성에서 나아가 기초적인 수준의 연주곡을 내놓기도 했다. 프로젝트팀의 목표는 이런 학습을 통해 기계가 새로운 악기를 만들고 사람들이 좋아하는 특성을 가진 음색을 만드는 것이라고 한다.

▲ 엔신스 에이블톤 라이브 악기 영상 

39. 시신경 질환 예측

건양의대 김안과병원 김응수 신경안과 교수팀은 시신경 질환 예측에 인공지능을 연구를 진행했다. 연구팀은 정상 시신경 사진 501건과 녹내장 진단 시신경 사진 474건 데이터를 입력해 인공지능을 학습·분석했다. 실험엔 회귀분석방법과 합성곱신경망방법 2가지를 이용했다. 350회의 반복 학습으로 회귀분석방법 훈련을 완료했고 녹내장 안 진단 정확도는 98.5%를 보였다. 합성곱신경망방법은 800회의 반복 학습으로 훈련을 완료했고, 진단 정확도는 100%에 이르렀다. 연구팀은 “학습에 녹내장 특징이 뚜렷하게 나타나는 사진만을 사용했기에 증상이 희미한 사진으로 진단하기에는 한계가 있다”라면서도 “다양한 안과 질환에 인공지능을 활용할 수 있을 것이라는 가능성을 확인했기에 연구를 이어갈 것”이라고 말했다.

Flickr.Veterans Health.Public Domain Mark 1.0

Flickr.Veterans Health.Public Domain Mark 1.0

40. 저작권 침해 예방

한국저작권보호원이 불법복제 영상 유통 차단에 인공지능을 활용할 계획이라고 2017년 9월 밝혔다. 한국저작권보호원은 전체 영상, 부분 영상, 반전 영상, 회전 영상, 왜곡 영상 등 식별할 수 있는 딥러닝 기반 연구 모델을 설계할 예정이다. 기존에는 영상물에 변형이 가해지면 한계가 있었지만, 다양한 변형을 알아차릴 수 있는 학습을 통해 사람의 눈으로는 발견하지 못하는 수준의 불법복제물까지 찾아내는 게 목표다.

(사진=한국저작권보호원 홈페이지 갈무리)

(사진=한국저작권보호원 홈페이지 갈무리)

41. 졸음운전 예측

일본 기타큐슈시 대형 택시업체 다이이치교통산업은 일본 손해보험사 및 글로벌 컨설팅 기업 액센츄어와 공동으로 졸음 예측 공동 연구에 인공지능을 사용한다. 2017년 3월부터 5월 약 두 달 간 택시 100대와 택시기사 100명을 대상으로 택시 운전자의 심박수, 운전자 태도, 운전자의 주행 모습 등의 데이터를 수집해 인공지능을 학습했다. 졸음 징후 식별에 어느 정도 성과를 거뒀으나, 여전히 연구는 진행 중이며 계속해서 심화 분석해 사고 방지 시스템까지 구축할 예정이다.

Flickr.naixn.CC BY-SA 2.0

Flickr.naixn.CC BY-SA 2.0

42. 다이어트 분야

비만 치료 전문 기업 365mc네트웍스는 한국마이크로소프트와 협업해 인공지능 지방흡입 기술 ‘M.A.I.L 시스템’ 도입을 앞두고 있다. 모션캡처 기술을 통해 지방흡입술 집도의의 전체 수술 동작을 저장하고 이 누적된 데이터를 인공지능이 분석한다. 조금 더 자세히는 지방흡입술 움직임을 디지털화하기 위해 사물인터넷 센서를 개발하고 여기서 빅데이터를 추출한다. 이 데이터를 안정적으로 전송·수집·예측·분석하기 위해 마이크로소프트 퍼블릭 클라우드 서비스 애저를 활용한다.

(사진=365cm네트웍스 홈페이지 갈무리)

(사진=365mc네트웍스 홈페이지 갈무리)

43. 영상 조작

미국 워싱턴대학교 연구진은 영상 조작에 인공지능을 사용했다. 음성에 맞춰 입술을 움직이는, 우리가 잘 알고 있는 ‘립싱크’ 기술로 알고리즘으로 만들었다. <워싱턴대학교뉴스>에 공개된 연구 결과는 버락 오바마 미국 전 대통령이 나온 영상 14시간 분량을 학습해 만들어졌다. 먼저 음성을 추출하고 이에 맞춰 입술 모양을 합성했다. 그다음 고갯짓, 눈, 턱 모양 등을 합성했다. 결과적으로 음성만 같은 다른 영상이 나왔다.

로봇이 사람의 모습과 흡사해질수록 호감도가 올라가다가 어느 수준에 이르면 호감도가 급히 하강한다. 그리고 오히려 거부감이 나타나는데 이를 ‘불쾌한 골짜기’라고 일컫는다. 연구진은 조작 영상을 공개하며 영상이 가짜인 걸 알지만 자연스럽게 느끼는 부분을 통해 ‘불쾌한 골짜기’를 극복했다고 말했다. 해당 연구는 삼성, 구글, 페이스북, 인텔, 워싱턴대학교 애니메이션 연구소의 지원을 받아 진행됐다.

(사진=워싱턴 대학교 뉴스사이트 갈무리)

(사진=워싱턴 대학교 뉴스사이트 갈무리)

▲ 원본과 조작 영상 비교

44. 드레스 제작

하이패션 디자이너 브랜드 ‘마르케사‘는 IBM과 협업해 최초로 인공지능 드레스를 제작했다. 마르케사 디자이너들은 우선 드레스에 표현하고자 하는 감정을 결정한다. 이후 IBM 인공지능 왓슨이 디자이너들이 결정한 감정에 따라 색깔, 옷감, 재단 방식 등을 추천했다. 왓슨은 마르케사 디자인에 대한 이미지 수백장을 미리 학습해 마르케사 브랜드 스타일 범위 내에 디자인을 제안했다.

IBM과 마르케사의 코그너티브 드레스를 멧 갈라에서 모델 캐롤리나 쿠르코바가 입었다. (사진=Wochit테크 영상 갈무리)

IBM과 마르케사의 코그너티브 드레스를 멧 갈라에서 모델 캐롤리나 쿠르코바가 입었다. (사진=Wochit테크 영상 갈무리)

▲ 마르케사와 IBM 왓슨 이야기

45. 번역기

번역 분야는 이미 인공지능이 활발히 활용되고 있고 많은 사람이 일상에 유용하게 쓰고 있다. 구글 번역, 네이버 파파고, 시스트란 등이 인공지능 번역을 제공하고 있다. 번역 서비스는 1950년 컴퓨터가 처음 등장했을 당시 쓰이던 ‘어구 기반 기계 번역(PMT)’첫 단계에서 문장을 단어 혹은 어구 단위로 잘라서 번역한다. 번역된 결과물을 조립해서 번역 최종 결과물을 내놓는 방식close에서 ‘통계 기반 기계 번역(SMT)’수많은 번역 데이터를 수집해 통계를 내서 가장 빈번하게 사용되는 표현·번역을 활용하는 방식close을 거쳐 2016년에 들어서 ‘신경망 기반 기계 번역(NMT)’으로까지 발전했다. 가장 최근에 적용되고 있는 신경망 기반 기계 번역 방식은 인공지능 학습 기술인 머신러닝과 딥러닝을 활용해 특정 언어를 번역할 수 있는 모델을 만들고, 해당 모델을 활용해서 번역 서비스를 제공한다. 사람처럼 문장 전체를 이해하고 인식해 번역하기 때문에 가장 자연스럽다.

2017년 2월에는 국제통번역협회(IITA), 세종대학교, 세종사이버대학교가 ‘인간 vs 인공지능 번역 대결’ 행사를 공동 주최하기도 했다. 알파고에 이어 인간과 인공지능의 두 번째 대결이라는 홍보에 세간의 많은 관심을 받았다. 제한된 시간 안에 영어와 한국어 지문을 번역하는 방식으로 이뤄진 이 행사에서 승자는 ‘인간’이었지만, 평가 기준이나 번역 환경이 공정하지 않았다는 논란이 일기도 했다.

구글 번역

구글 번역

네이버 파파고

네이버 파파고

46. 채용 도우미

채용 전문 회사 헤이스는 인력을 뽑을 때 인공지능의 힘을 빌린다. 일자리, 기술, 경험, 직업, 산업, 고용주 등과 같은 유형 정보와 그 요구사항을 다양한 방식으로 조합해서 결과가 나올 수 있도록 학습 과정을 거친다. 이 과정에 비정형 데이터를 일관성 있게 정형 데이터로 처리하는 것도 필요하다. 인공지능 기술의 적용으로 고급 매칭 시스템을 구현하고 헤드헌터가 채용 모집에 맞는 후보 목록을 추가 검색 없이 바로 얻을 수 있도록 한다. 헤이스는 인공지능의 결과물이 헤드헌터의 일을 덜어주고 헤드헌터가 각 후보자를 평가할 시간을 늘려 채용 수준을 높이는 데 도움을 줄 수 있을 것이라 평가한다.

Flickr.Hamza Butt.CC BY 2.0

Flickr.Hamza Butt.CC BY 2.0

47. 목소리 재현

캐나다 몬트리올 스타트업 라이어버드는 사람 목소리를 재현하는 데 인공지능 기술을 사용했다. 필요한 것은 단 60초 정도의 음성 녹음 데이터다. 어도비의 ‘프로젝트 보코’, 구글 딥마인드의 ‘웨이브넷’도 음성 모방 기술을 선보인 바 있다. 그러나 프로젝트 보코의 경우 최소 20분 정도의 샘플이 있어야 알고리즘을 만들 수 있다. 라이어버드의 알고리즘은 수십초짜리 음성 데이터만 있다면 0.5초 안에 문장 1천개를 생성할 수 있다. 이 알고리즘은 몬트리올대학 몬트리올학습알고리즘연구소(MILA)에서 개발한 딥러닝 모델을 기반으로 한다. 심지어 감정을 담은 목소리까지 재현할 수 있다. 재현 수준이 완벽한 것은 아니나 연구팀은 몇 년 안에 진짜 목소리와 구별할 수 없는 수준에 이를 수 있다고 말한다. 한편에서는 목소리 재현 알고리즘이 더 정교해지면 이를 악용한 범죄가 발생할 수도 있다고 염려한다.

 

(사진=라이어버드 홈페이지 갈무리)

(사진=라이어버드 홈페이지 갈무리)

48. 신용카드 거래 승인

마스터카드가 신용카드 승인에 ‘디시전 인텔리전스’라는 이름의 인공지능 시스템을 도입하기로 했다. 디시전 인텔리전스는 정교한 알고리즘과 정보 분석을 통해 고객 개별 거래를 평가하고 점수를 매기며 학습한다. 고객 개별 정보에는 과거 거래 내역, 위험 프로파일, 거래 장소, 가맹점, 결제 디바이스, 결제 시간·유형 등이 포함된다. 미리 정의된 규정을 기반으로 거래 위험성을 측정하는 방식과는 다르다. 각 거래를 분석하고 산출된 정보를 바탕으로 최종적으로 발급사가 발급 승인 여부를 결정한다. 마스터카드는 이 시스템 도입이 정상 거래에 대한 승인 거절 확률을 줄일 수 있을 것으로 기대하고 있다.

49. 영화 선호도 예측

디즈니 리서치팀과 매사추세스 보스톤팀이 공동으로 단편 이야기를 평가할 수 있는 신경망을 연구하고 있다. 이 인공지능은 이야기를 분석하지는 않지만, 어떤 이야기가 사람들에게 가장 인기 있을지 예측한다. 연구팀은 9편의 영화를 150회 상영하면서 사람들의 얼굴을 인식하는 실험을 진행했다. 관객 3179명을 대상으로 1600만개의 표정을 평가했다. 이를 기반으로 사람들의 표정을 학습하며 패턴을 발견했다. 아직은 큰 성공을 거두지는 못했으나 디즈니는 미래 연구를 위한 발판으로 사용할 수 있는 수준이라고 말했다.

Flickr.sⓘndy°.CC BY-SA 2.0

Flickr.sⓘndy°.CC BY-SA 2.0

50. 미인대회 심사위원

뷰티닷에이아이‘는 최초로 로봇 판정단으로만 이뤄진 미인대회다. 로봇들은 마이크로소프트가 후원하는 딥러닝 그룹 청년실험실이 만든 인공지능 모델을 기반으로 돌아간다. 인공지능은 많은 사람의 사진 데이터를 바탕으로 얼굴 균형, 피부, 주름 등 미를 구분할 수 있는 모든 기준을 객관화한다. 그 자료를 바탕으로 나이, 인종, 성별 등으로 나눠진 그룹 안에서 외모 순위를 매긴다.

2016년 7월 이 로봇이 개설된 뒤 전세계 100개국 6천명가량이 사진을 보냈다. 그런데 이 자료로 인공지능이 내놓은 결과는 논란을 낳았다. 뽑힌 44명 중 대부분이 백인으로 편향된 알고리즘이 문제가 됐다. 이를 두고 알고리즘이 중립적이고 객관적이라는 인식이 있어도 그것을 만드는 인간의 편견이 반영된 결과라는 의견이 나왔다.

▲ 뷰티닷에이아이 영상

네티즌의견(총 4개)