▲ △18일(현지시각) 순다 피차이 구글 CEO가 구글I/O에서 말하고 있다.
▲ △18일(현지시각) 순다 피차이 구글 CEO가 구글I/O에서 말하고 있다.

지난 18일(현지시간) 구글의 연례 개발자 행사 ‘구글I/O 2021’가 열렸다. 세계 최대 규모의 개발자 행사로, 2008년 이래 매년 이어져 오고 있다. 매년 구글의 방향성을 발표하고 신기술·제품을 소개하는 자리다. 작년엔 코로나로 인해 개최가 불발됐지만 올해는 온라인으로 사흘간 무료행사를 진행했다. ‘랜선’으로 구글I/O가 열린 건 사상 처음이다.

‘AI 퍼스트’ 외쳤던 구글

“우리는 컴퓨팅의 새로운 전환을 목격하고 있습니다. 모바일 퍼스트(mobile-first) 세계에서 인공지능 퍼스트(AI-first) 세계로의 전환입니다.” 앞서 피차이 CEO가 ‘구글I/O 2017’에서 한 말이다. 2016년 AI 비서 ‘구글 어시스턴트’를 처음 공개한 구글은 지난 2017년부터 AI를 전면에 내세우고 있다. 매년 진화도 거듭해왔다. ‘구글I/O 2017’에서는 카메라 비전 기술인 ‘구글렌즈’를 공개했다. 렌즈로 사진을 찍으면 사물을 인식해 번역·검색 등을 돕는 기술이다. 구글은 와이파이 연결을 위해 라우터에 있는 복잡한 비밀번호를 카메라로 찍으면 구글렌즈가 이를 인지해 로그인을 자동실행해주는 기능을 예시로 들었다.

이듬해인 2018년 구글은 ‘모두를 위한 AI(AI for everyone)’를 주제로 내걸고 ‘구글 듀플렉스(Google Duplex)’를 공개했다. 원하는 예약 내용을 말하면 구글 어시스턴트가 지역 미용실 등에 직접 전화해 사람과 대화하며 예약을 잡아주는 신기술이었다. 2019년에도 이 같은 기조는 이어졌다. 피차이 CEO는 “구글의 비전은 누구든, 어디에 살고 있든, 어떤 것을 목표로 하든 모두를 위해 더 유용한 구글을 만드는 것”이라고 말한 바 있다.

구글 검색의 재구성

구글은 예년처럼 ‘인공지능(AI)’을 구글I/O의 화두로 꺼냈다. 순다 피차이 구글 최고경영자(CEO)가 제시한 기조연설의 주제는 ‘중요한 순간에 도움을(Being helpful in moments that matter)’이었다. 특히 올해의 주인공은 ‘검색’이었다. 피차이 CEO는 언어·문맥을 이해하고 답하는 AI 대화모델 ‘람다(LaMDA)’를 선보였다.

람다는 정해진 답변을 학습하지 않아 자연스러운 ‘대화형 검색’이 가능하다. 가령 람다가 적용된 명왕성에게 “널 찾아가면 뭘 볼 수 있니”라고 물으면 “날 찾아오면 거대한 협곡과 얼어붙은 빙산, 간헐천, 그리고 분화구를 볼 수 있어” “사람들이 내가 그냥 얼음덩어리가 아닌 아름다운 행성이라는 것을 알았으면 좋겠어” 등의 답을 들을 수 있다. 피차이 CEO는 “람다는 텍스트로만 훈련되고 있다”라며 “대개 사람들은 이미지·텍스트·오디오·영상 등을 통해 소통하기 때문에 사람들이 다양한 유형의 정보에 대해 자연스럽게 질문을 수 있는 방식을 구축해야 한다”고 말했다.

▲ △피차이 CEO는 사람간 대화가 처음 시작한 주제에서 전혀 다른 주제로 흘러가는 예측 불가능성을 특징으로 한다고 설명했다. 람다도 이에 맞춰 어떤 주제에 대해서든 얘기할 수 있다고 한다.
▲ △피차이 CEO는 사람간 대화가 처음 시작한 주제에서 전혀 다른 주제로 흘러가는 예측 불가능성을 특징으로 한다고 설명했다. 람다도 이에 맞춰 어떤 주제에 대해서든 얘기할 수 있다고 한다.

이 같은 ‘빈틈’을 메우기 위해 구글은 새로운 AI 검색엔진 알고리즘인 ‘멈(MUM·multimodal model)’을 연구 중이다. 2019년 도입한 구글 검색모델인 ‘버트(BERT)’보다 1000배 빠르고, 이미지·텍스트·음성·영상 등을 복합적으로 이해한다. 예를 들어 등산화 사진을 첨부하고 “등산할 때 이 신발 신어도 돼?” 물어도 답을 준다. 대화형식의 복잡한 검색어도 알아듣는다. “지난번에 미국 아담스산을 등반한 적 있는데, 이번 가을 일본 후지산에 가려면 어떤 준비를 해야 할까?”라고 물으면 멈은 질문의 의도를 파악해 고도·기온부터 등산로의 난도, 필요장비 등을 비교해 알려준다.

구글은 검색에서 언어 장벽도 걷어낼 계획이다. 기존에는 세계 각국의 정보를 찾으려면 해당 국가의 언어로 검색해야 했다. 그런데 멈은 각 언어로 흩어져 있는 ‘정보 조각’을 모아 검색결과로 제공하는 데 중점을 두고 있다. 구글 판두 나약 검색부문 부사장은 “아직은 (람다·멈 모두) 연구 단계지만 사람들이 자연스럽게 정보를 전달하고 해석하는 다양한 방법을 구글이 모두 이해할 수 있는 미래를 향한 중요한 이정표”라고 설명했다.

멈은 구글 검색, 구글 어시스턴트, 구글 워크스페이스 등에 도입돼 활약할 것으로 기대된다. 검색의 ‘퀀텀점프(Quantum Jump·비약적 발전)’가 현실화되면 구글의 영향력은 보다 막강해질 전망이다. 순다 피차이는 22일 <야후 파이낸스>와의 인터뷰에서 “우리의 궁극적인 ‘문샷(moonshot·혁신적인 아이디어를 달 탐사선 발사에 빗댄 단어)’은 여전히 검색”이라며 “사용자의 의도와 맥락을 파악하고 답변을 제공하기 위해선 아직 갈 길이 멀다”고 말했다.

우려의 목소리도 있다. 구글 검색 의존도가 높아지면 부작용도 따라올 수밖에 없어서다. <쿼츠>는 “구글이 (이번에 발표한) 멈 등의 검색결과가 편향되거나 잘못된 답변을 줄 위험도 높다”면서 “AI는 그 스스로 말하는 단어를 이해하는 능력이 없는데도 사람들은 인간처럼 자연스럽게 말하는 AI로부터 얻은 정보를 실제보다 더 신뢰할 수 있다”고 지적했다. 이어 “사람들은 온라인에서 정보를 검색할 때 판단력과 비판적 사고를 더 많이 발휘해야 한다”고 강조했다.

▲ △앞서 구글은 지난해 자사 정책을 비판한 AI 윤리기술 책임자 팀닛 거브루를 해고해 논란을 일으킨 바 있다. AI 기술이 흑인·소수집단에 대해 편향된 결과가 잇따른다는 지적도 잇따랐다. 사태가 커지자 구글은 AI 윤리 연구팀 규모를 2배 이상 확대하겠다고 밝혔다.
▲ △앞서 구글은 지난해 자사 정책을 비판한 AI 윤리기술 책임자 팀닛 거브루를 해고해 논란을 일으킨 바 있다. AI 기술이 흑인·소수집단에 대해 편향된 결과가 잇따른다는 지적도 잇따랐다. 사태가 커지자 구글은 AI 윤리 연구팀 규모를 2배 이상 확대하겠다고 밝혔다.

별것 아닌 것 같지만 도움이 되는

이번 구글I/O에서 구글은 실생활에 도움이 되는 기술을 선보이는 데 주력했다. 연장선상에서 피부 문제를 쉽게 파악할 수 있는 AI 기반의 앱을 개발 중이다. 피부나 머리카락, 손톱 등의 사진을 찍고 정해진 질문에 대답하면 앱이 이를 분석해 예상질환 목록 등을 제공해준다. 구글이 3년 이상 머신러닝 연구에 착수해 내놓은 결과물이다. 올해 말 초기 테스트가 목표다.

코로나 시대에 발맞춰 개발한 협업도구 ‘스마트 캔버스’도 관심을 모았다. 구글 독스·시트·슬라이드 등에서 화상회의 기능인 구글 미트를 바로 이용할 수 있게 만든 통합 서비스다. 또 구글은 영상통화를 하면서 상대방의 얼굴을 3D 입체로 보면서 대화할 수 있는 기술인 ‘프로젝트 스타라인’을 공개했다. 개발 초기 단계로, 구글은 이 기술을 고도화해 의료·미디어 분야에 확장할 계획이다.

▲ △구글의 협업도구, 스마트 캔버스
▲ △구글의 협업도구, 스마트 캔버스

아울러 구글은 지도·어시스턴트·쇼핑·포토 등의 기능 개선을 예고했다. 새 버전의 OS인 ‘안드로이드12’를 발표하는 한편 웨어(Wear)·타이젠 OS를 통합하겠다는 계획도 밝혔다. 웨어러블 통합 플랫폼을 만들어 애플워치에 대적하겠다는 뜻으로 풀이된다. 전작인 ‘TPU v3’보다 2배 이상 빠른 차세대 머신러닝 칩 ‘TPU v4’도 공개했다.

오는 2029년까지는 상업용 양자컴퓨터를 개발할 계획이다. 이를 위해 구글은 캘리포니아 산타 바바라에 ‘퀀텀 AI 캠퍼스’를 설립했다고 밝혔다. 구글 최초의 양자 데이터센터와 양자 하드웨어 연구소가 이곳에 자리하고 있다. 에릭 루세로 구글 퀀텀 AI 부문 수장은 “앞으로 10년간 전세계는 환경파괴, 전염병 대유행 같은 거센 도전을 맞게 될 것”이라며 “이를 해결하는 데 양자컴퓨터가 필요하다”고 말했다.

저작권자 © 블로터 무단전재 및 재배포 금지