AI는 저널리즘의 도구일까, 가짜뉴스 생성기일까

2019 데이터저널리즘코리아 컨퍼런스

가 +
가 -

‘알파고’ 이후 인공지능(AI)은 다양한 사회적 논의를 불러오고 있다. 낙관과 비관을 교차하며, AI가 불러올 사회 변화상이 현재진행형으로 제시되고 있다. 저널리즘 영역에서도 마찬가지다. AI가 저널리즘의 도구로 활용될 거라는 긍정론과 가짜뉴스를 양산하는 데 쓰일 거라는 부정론이 함께 제기된다. 일각에서는 가짜뉴스를 탐지하는 AI에 대한 연구도 진행되고 있다. 이에 창과 방패의 싸움이 될 거라는 전망도 나온다.

지난 11월22일 서울 중구 한국프레스센터에서 열린 ‘2019 데이터저널리즘코리아 컨퍼런스(DJCON)’에서는 데이터저널리즘과 AI, 로봇 저널리즘 등을 주제로 한 다양한 국내외 사례들이 발표됐다. 2019 DJCON은 데이터저널리즘코리아, 건국대 디지털커뮤니케이션연구센터(DCRC)가 공동 주관하고, 구글 뉴스 이니셔티브가 후원하는 행사로, 올해로 세 번째 열렸다. 이날 기조강연은 저널리즘의 도구로써 AI를 주제로 진행됐다.

| 2019 데이터저널리즘코리아 컨퍼런스(DJCON)

이날 첫 기조강연자로 나선 차미영 카이스트 부교수 겸 기초과학연구원 CI는 “인간의 창조작업을 돕는 다양한 AI 기술의 개발로, 로봇 저널리즘의 새로운 시대가 도래했다”라며 “단순한 기사 작성을 넘어서 창작의 범위에도 AI가 활용되고 있으며, 이미 AI 예술 시장이 형성되고 있다”라고 짚었다. 이어 “기술의 이면에는 AI 저작권 및 페이크 뉴스 이슈가 발생하며 이러한 위기 대응을 위해 노력이 필요하다”라고 말했다.

저널리즘 도구로써 AI

컴퓨터 알고리즘을 통해 기사를 작성하는 로봇 저널리즘은 1977년 처음 시작됐다. 학교 수업 프로그램에서 출발해 엉성한 문장을 만들어내던 로봇 저널리즘은 금융 분야를 거쳐 날씨 정보, 스포츠 등 현재 다양한 영역에서 활용되고 있다. <LA타임스>의 ‘퀘이크봇’ 사례가 대표적이다. 지진 기사 작성 알고리즘인 퀘이크봇은 2014년 3월 캘리포니아 지진 속보를 3분 만에 처리한 것으로 알려지면서 로봇 저널리즘에 대한 본격적인 관심을 촉발했다.

최근에는 차세대 딥러닝 알고리즘 ‘GAN(생성적 적대 신경망)’ 기술을 활용한 AI 아나운서도 등장하고 있다. GAN은 진짜 같은 가짜를 생성하는 모델과 이에 대한 진위를 판별하는 모델의 경쟁을 통해 진짜 같은 가짜 이미지를 만들 수 있는 딥러닝 기술이다. 이를 통해 자동으로 AI 아나운서가 등장하는 영상 뉴스를 생성할 수 있는 길이 열린 셈이다.

차미영 부교수는 “AI가 기사의 스타일을 학습해 초안을 쓰고 이후 기자가 개입하는 시대가 올 수 있다”라며 “AI가 기초 작업을 해주면 기자는 고차원의 결정을 내리는 형태로 AI를 저널리즘 도구로 활용할 수 있을 것”이라고 말했다.

| 사이먼 로저스 구글뉴스랩 데이터 에디터

이날 두 번째 기조강연에 나선 사이먼 로저스 구글뉴스랩 데이터 에디터는 AI를 활용한 뉴스룸 혁신을 강조했다. 사이먼 로저스는 데이터저널리즘의 선구자로 평가받는다. 영국 <가디언>의 데이터저널리즘 에디터를 맡아 <가디언>의 데이터저널리즘 혁신을 이끌었으며, 트위터 데이터 에디터를 거쳐 현재 구글뉴스랩에 몸담고 있다. 그는 가장 사실에 근접한 이야기를 전달하는 도구로써 AI 기술을 소개했다.

사이먼 로저스 에디터는 “기존 저널리즘과 시각 디자인, 통계가 만나는 지점에서 데이터 혁신이 발생하며, 여러 기술적 도구를 활용해 저널리즘을 개선하는 게 데이터 저널리즘”이라며 “데이터에 숨겨진 유의미한 이야기를 찾아내는 것이 곧 데이터 저널리즘이며, 숨겨진 이야기를 어떻게 끄집어낼 것인가가 중요하다”라고 말했다. 이어 자연어처리(NLP), 컴퓨터 비전, 신경망 기계번역 등 구글의 AI 기술과 이를 활용한 사례를 소개했다.

가짜뉴스 생성기 vs 판별기

AI를 저널리즘 도구로 활용한 긍정적 사례들이 나오고 있지만, 우려도 적지 않다. AI가 어뷰징 기사를 쏟아내고 나아가 가짜뉴스를 생성해 확산시키는 도구로 활용될 거라는 우려다.

차미영 부교수는 “로봇 저널리즘이 개입되는 순간 어뷰징 기사가 많아질 수 있고, 특정 토픽이 마치 중요한 것처럼 기사를 많이 만들어낼 수 있다”라며 “봇을 활용해 ‘좋아요’를 얻는 등 과장된 확산도 있을 수 있다”라고 로봇 저널리즘의 한계를 짚었다. AI를 악용한 어뷰징 기사가 난립해 전반적인 저널리즘의 질이 낮아지고 단순화될 수 있다는 지적이다.

또 이 같은 방식으로 가짜뉴스가 생성되고 확산될 가능성도 제기했다. 여기에 GAN 등 진짜 같은 가짜를 만들어내는 기술까지 더해져 이미지, 음성, 영상들이 실제와 가깝게 만들어져 조작돼 가짜뉴스 문제를 심화시킬 거라는 우려도 나온다. 최근 스탠포드 대학의 연구 결과에 따르면 기술에 익숙한 ‘디지털 네이티브’ 세대도 정보의 진위성 파악에 취약한 것으로 나타났다.

한편에서는 가짜뉴스를 판별하는 AI 기술도 연구되고 있다. 차 부교수는 가짜뉴스의 패턴 특징을 분석해 대응할 수 있다고 설명했다. 실제 뉴스는 뉴스 생성 주기에 따라 시간이 흐르며 파급력이 약해지는 경향을 보이지만, 가짜뉴스는 지속해서 반복되는 패턴을 나타낸다.

| 작고 산발적인 커뮤니티 구조를 통해 퍼지는 가짜뉴스

또한, 뉴스가 퍼지는 패턴이 비교적 작고 산발적인 커뮤니티 구조를 통해 퍼진다. 일반 정보는 사람을 통해 연결되지만, 가짜 정보는 수용자는 있지만 이를 사람이 다시 실어 나르지 않는다는 얘기다. 이 때문에 가짜뉴스는 산발적 점조직 형태의 네트워크 패턴이 나타난다. 차 부교수는 이 같은 네트워크 패턴과 언어적 패턴을 분석해 가짜뉴스 여부를 판별할 수 있다고 설명했다. 차 부교수에 따르면 인간의 가짜뉴스 판별 수준은 66% 정도지만, 알고리즘은 80% 이상 찾아낼 수 있다.

차 부교수는 “현재는 처음부터 AI가 창작한 가짜뉴스는 없는 것으로 알려졌으며, 가짜뉴스 탐지에 AI가 사용되고 있다”라며 “앞으로는 AI가 생성하는 가짜뉴스가 생기고 이를 또 탐지하는 AI가 만들어지면서 경쟁하는 구도가 될 것”이라고 밝혔다.