'데이터가 많으면 많을수록 더 좋은 음성 인식 서비스를 제공할 수 있다.'

어찌보면 당연하게 받아들이고 넘어갈 수 있는 내용이건만, 구글은 이를 증명했다. 자사 검색엔진을 통해 입력된 단어와 음성인식을 통해 수집된 데이터를 분석해 대용량 데이터가 음성인식에 어떤 영향을 끼치는지 그 상관관계를 살폈다.

구글은 자사 공식블로그를 통해 스마트폰에서 사용되는 음성검색 엔진 등 친 소비자 서비스를 만들 때 데이터 양이 중요하다고 강조했다.

구글이 획기적인 기술을 도입해 데이터양과 음성인식 간 관계를 분석한 건 아니다. 자사 웹 사이트를 통해 수집한 2300억개에 이르는 단어와 유튜브에 올라온 동영상에서 단어를 추출해 관계를 연구했을 뿐이다. 그 결과 구글은 되도록 많은 사람들의 음성과 단어를 수집하면 수집할수록 음성검색엔진이 보다 명확하게 언어를 인지해 결과를 보여주는것으로 나타났다고 밝혔다.

이번 연구를 진행한 치프 셀바 구글 검색 과학자는 "음성검색엔진이 알고 있는 단어가 많은면 많을 수록 보다 빠르게 사용자가 말한 문장을 파악할 수 있으며, 때론 사용자의 의도를 파악하는 것도 가능해진다"라고 말했다.

예를 들어 뉴욕이라는 단어가 먼저 제시됐다면, 대량의 데이터를 가진 음성검색엔진은 자신이 갖고 있는 데이터를 바탕으로 뉴욕 다음에 함께 제시될 단어로 '그래놀라'보다는 '피자'가 더 많이 언급될 것으로 예측한다.

그 결과 음성검색엔진은 자신의 예측을 바탕으로 사용자에게 제공할 대답을 준비한다. 구글은 보고서를 통해 "제대로 된 데이터만 수집한다면, 유튜브 동영상에 나오는 음성을 분석해 사용자가 원하는 영상을 추천할 수 있는 기능 또는 음성검색엔진이 탑재된 스마트폰과 대화하는 날도 멀지 않은 것처럼 보인다"라고 설명했다.

대용량 데이터를 수집하면 좀 더 실시간으로 반응할 수 있게 되고, 사용자의 의도를 명확하게 파악할 수 있게 되는 음성검색엔진을 만들 수 있단 얘기다. 더 나아가선 음성검색엔진이 아닌 사람과 대화하는 듯한 효과를 낳을 수도 있다. 개인 성향에 맞춘 대답을 제공하는 것도 가능해질지 모른다.


▲이미지 : Flikr 'Dion Hinchcliffe'. CC-BY


그동안 구글은 자사가 수집한 대용량 데이터를 어떻게 하면 효율적으로 처리할 수 있는지, 상업적으로 어떻게 활용할 수 있는지를 연구했다.  자사가 가진 빅데이터 기술 자체를 판매하기보다는 해당 기술들을 이용해 어떤 서비스를 만들어 낼 것인지를 더욱 주목했다.

실제로 지난 6춸 구글은 자사 블로그를 통해 구글X 소속 과학자들이 사람과 같이 학습을 통해 판단을 내릴 수 있는 인공신경망을 개발했다고 발표했다. 이 인공신경망은 유튜브 동영상 이미지를 통해 '고양이'라는 단어를 스스로 구분해낸 것으로 알려졌다. 인공신경망 개발을 위해 구글X 연구진은 구글 데이터센터를 활용해 1만6천개의 이르는 컴퓨터중앙처리장치(CPU) 코어와 10억건 이상의 데이터 연결을 처리할 수 있는 모델을 도입했다고 밝혔다.

여기에 구글은 클라우드 기반의 데이터 분석 서비스인 '빅쿼리' 소프트웨어를 갖고 있다. 빅쿼리는 온라인분석처리(OLAP) 시스템으로 테라바이트(TB)급에 이르는 데이터를 구글 검색엔진 인프라로 실시간 분석할 수 있게 도와준다.

구글의 이런 기술들이 음성검색엔진이 결합됐다고 가정해 보자. 구글이 인공지능 로봇을 만든다고 해도 전혀 놀라울 일이 아닐 듯하다.

구글이 발표한 논문 바로보기

저작권자 © 블로터 무단전재 및 재배포 금지