[IT흥신소]'LG=아텔제'?..CES ‘엉망진창’ AI 번역 이유

발행일 2021-01-22 09:35:12
'흥신소'는 돈을 받고 남의 뒤를 밟는 일을 주로 한다고 합니다. ‘블로터 IT흥신소’는 독자 여러분의 질문을 받고, 궁금한 점을 대신 알아봐 드립니다. IT에 관한 질문, 아낌없이 던져주세요. 공짜입니다. 이메일(bloter@bloter.net), 페이스북(https://www.facebook.com/bloter.net), 네이버TV(https://tv.naver.com/v/17605554), 유튜브(https://www.youtube.com/channel/UCfCyktz09_RnCzW8uwrRP9Q) 모두 열려 있습니다.


지난 11일부터 14일까지 나흘 간 열린 글로벌 가전쇼 CES2021는 사상 처음 100% 온라인으로 진행됐습니다. 이번 행사에선 마이크로소프트의 실시간 인공지능 번역 시스템이 제공됐는데요. 무려 17개 언어를 동시에 번역해 화제가 됐습니다.

그런데 이 시스템의 번역이 다소 이상하다는 지적이 나왔습니다. 말이 안 되는 단어나 문장을 보여주기도 하고요, 또 말은 되는데 맥락상 뜬금없는 내용이 등장하기도 했습니다. 인공지능 번역 시스템이 가진 한계를 여실히 보여줬죠.

인공지능 번역기의 작동 원리는 이렇습니다. 번역기가 텍스트를 받거나 사람의 음성을 받아 텍스트로 변환한 뒤 이를 2차 언어로 바꾸죠. 그 과정에서 번역 엔진은 받아들인 언어를 맥락이나 규칙에 맞게 해석합니다.

최초 AI번역기는 규칙이나 문법에 기초합니다. 정돈된 문장에 대한 정확도는 높았지만, 규칙에 어긋나면 오류가 컸죠. 하지만 2016년 구글을 필두로 ‘인공신경망’에 기초한 통계 기반 엔진이 등장하면서 AI번역기의 정확도는 매우 높아졌습니다.

오늘날 대부분의 AI번역기는 번역본과 원문을 비교하며 이를 모방하는 식으로 ‘딥러닝’을 합니다. 단어와 문장들 사이 연결성을 보고, 그 맥락을 파악해 최적의 답을 찾죠. 많은 데이터를 학습한 번역 엔진일수록 정확도는 더 높아질 겁니다.

AI 번역의 한계는 'STT'와 맥락 파악... "통번역가 대체하려면 10~20년은 더 걸릴 것"

그런데 말입니다. 딥러닝 기반의 AI 엔진이라도 한계는 분명히 존재합니다. 발화자의 대화 맥락을 기계가 100% 온전히 파악하긴 어렵습니다. CES2021에서 뜬금없는 번역문이 나온 이유입니다.

또 다른 문제도 있습니다. 실시간 번역기는 음성을 텍스트로 변환하합니다. 이를 Speech-to-Text, 줄여서 ‘STT’라고 합니다. 그런데 만약 음성을 제대로 텍스트로 바꾸지 못한다면, 제대로 된 번역 또한 불가능하겠죠.

이에 대해 집단지성·인공지능 번역 서비스를 제공하는 플리토의 이정수 대표는 STT 과정에서 음성을 잘못된 텍스트로 변환하는 문제가 있다고 지적합니다. 또 인공지능이 맥락을 파악할 때도 문장 안에서만 맥락을 파악할 뿐, 앞뒤 문장의 맥락을 파악하는 단계에는 이르지 못했다고 한계를 설명했습니다.

인공신경망의 발달에 따라 AI번역의 기술적 수준은 매우 높아졌습니다. 하지만 마이크로소프트나 구글과 같은 대기업들의 번역 엔진도 아직 대화의 맥락을 완벽하게 파악하는 능력에 이르진 못했습니다.

인공지능 번역이 발전하면서 통번역가가 사라질 것이란 말이 있죠. 하지만 아직까지 기술적 한계가 있는 만큼 둘은 당분간 공존할 가능성이 더 커 보입니다.

<블로터> IT흥신소, 이번 편에서는 CES에서의 인공지능 실시간 번역이 어색했던 이유를 정리했습니다. 자세한 내용은 영상을 시청해주세요!

함께 보면 좋은 뉴스

댓글

(0)
※ 댓글 작성시 상대방에 대한 배려와 책임을 담아 깨끗한 댓글 환경에 동참에 주세요. 0 / 300

요일별 Edition

뉴스레터
  • 최신 IT 소식을 가장 빠르게 받아보세요. (광고성 정보가 포함될 수 있습니다.)