기술로 저널리즘 투명성을 높이는 방법

가 +
가 -

저널리즘은 원론적으로는 진실을 좇는 과정이라고 할 수 있다. 그러나 진실을 드러내기 위한 과정은 지난하고 복잡한 성격을 갖는다. 디지털 시대로 옮겨오면서 여기에 기술적 복잡성까지 더해졌다. 진실을 왜곡하기는 쉬워졌고, 복원하고 탐지하는 과정에서 디지털 기술의 조력이 필요한 상황이 됐다. 다시 강조하자면 저널리즘은 진실을 드러내려는 일련의 과정이다. 많은 저널리즘 윤리는 과정의 투명성을 확보하기 위해 복잡다단한 절차를 요구해왔다. 이를테면 익명 취재원을 최소화한다거나 취재 과정의 객관적 접근 방법을 기사 안에 명시하는 방식이다.

생산 과정의 투명성(1) – 편집 이력의 개방

위키피디아가 편집 이력을 공개하는 방식.

위키피디아가 편집 이력을 공개하는 방식.

생산 과정의 투명성을 개방하는 기술적 방안으로는 먼저 뉴스 수정과 업데이트 과정의 투명성을 제고할 수 있는 기술의 개발을 들 수 있다. 뉴스 혹은 저널리즘 작업물의 생산 과정은 투명성의 원칙이 원천적으로 지켜야 할 기본적인 영역이라고 할 수 있다. 이미 많은 언론사들이 이 과정의 투명성을 확보하기 위해 다양한 기술적 보조장치를 활용하고 있다. 기사가 수정된 시간을 표기하거나 일부 정정 내용을 본문 하단에 표시하는 등의 투명성을 제기하기 위한 소소한 기술적 시도가 그간 끊임없이 진행돼왔다. 하지만 투명성을 높이기 위한 장치로서 기술적 응용은 여전히 제한적이거나 소극적이다.

일반적으로 기사의 왜곡은 웹에 게시된 이후 기사 내용의 업데이트 혹은 수정 과정에서 발생하는 경우가 많다. 언론사 내부 어떤 주체에 의해, 어떤 내용이, 어떤 이유로, 어떻게 바뀌었는지에 대해서는 여전히 베일에 싸여 있다. 웹이라는 공간에 게시된 이후 방문자의 유입이 없는 시기에, 이 같은 과정이 독자의 감시 없이 진행되는 경우가 적지 않았다.

일부 진전된 기술력을 보유하고 있는 <뉴욕타임스>와 같은 일부 언론사는 콘텐츠관리시스템(CMS) 내부에 콘텐츠 편집 이력(revision history) 기능을 갖추고 있다. 하지만 투명성 강화라는 목적으로 이 기능을 독자들을 위한 서비스로 변형해 제공하지는 않는다. 정정 내역을 보다 투명하게 제시할 수 있는 기술적 방식을 갖추고 있지만 내부 행위자를 위해 제한적으로 활용하고 있는 경우다.

뉴스 생산 과정의 투명성을 기술적으로, 모범적으로 구현하고 있는 사례는 위키피디아를 들 수 있다. 위키피디아는 사실의 기록과 정확성, 객관성이라는 전통적 저널리즘 관점에서 유의미한 저널리즘 주체로 기능하고 있는 웹 백과사전이다. 위키피디아는 이를 위해 편집 이력을 투명하게 공개하는 기능을 제공하고 있다. 사전 방문자들은 누가, 언제, 어떤 방식으로 어떤 내용을 얼마나 변경했는지 자세히 파악할 수 있다. 신뢰를 구축하기 위한 방편으로서 편집 이력이라는 기술적 보조장치는 유효하고 효율적인 기능을 수행하고 있다고 볼 수 있다.

언론사는 위키피디아의 편집 이력 기능을 창의적으로 재활용함으로써 생산 과정의 투명성을 기술적으로 실현할 수 있다. 단, 위키피디아보다 한 단계 더 진전된 방식으로 구현할 필요가 있다. 위키피디아는 결과로서의 정보에 집중하는 서비스이지만, 저널리즘의 결과물들은 과정으로서의 정보나 의견에 더 관심을 가질 필요가 있어서다. 수정 이력을 독자들이 즉시 이해할 수 있게 수정 흔적을 남겨두는 것은 정정(correction)을 기사 하단에 첨부하는 것만큼이나 중요하다고 할 수 있다.

생산 과정의 투명성 (2) – 데이터 가공 과정의 개방

구글 드라이브의 OCR 기능을 이용해 이미지를 텍스트로 변환한 결과.

구글 드라이브의 OCR 기능을 이용해 이미지를 텍스트로 변환한 결과.

데이터 주도 저널리즘(Data Driven Journalism)이 증가하면서 데이터 자체에 대한 왜곡 가능성이 커졌다. 이미 전세계적으로 많은 언론사들이 데이터 저널리즘을 시도하면서 저널리즘의 질적 향상이 기대되고 있는 것은 사실이다. 하지만 방대한 데이터를 다루고 있지만 정작 데이터의 정제 과정이나 정확도를 기하기 위해 세세한 후처리 과정은 공개되지 않는다. 데이터 사용의 왜곡 가능성이 전적으로 데이터를 가공하는 개인 기자에게 맡겨져 있는 상황이다.

일반적으로 데이터의 1차 왜곡이 발생할 수 있는 과정은 원본 문서에서 데이터를 추출하는 단계다. 종이와 같은 아날로그 문서에 존재하는 데이터를 엑셀과 같은 온라인 스프레드시트로 옮기는 과정에서 문자인식 기술 등에 의존하게 되는데, 인식률에 따라서 데이터 왜곡이 발생할 가능성이 높아진다. 데이터를 다루는 이의 실수가 개입될 수도 있고, 누락이 발생할 수도 있다.

이를 해결할 수 있는 보편적이고 효율적인 기술적 도구가 아직은 등장하지 않은 듯하다. 문서의 인식과 데이터 추출, 데이터 분석 그리고 데이터 시각화에 이르는 데이터 저널리즘의 구현 과정이 통합된 서비스로 제공되지 않아서다. 만일 이 과정이 하나의 디지털 도구 안에서 구현될 수 있다면 독자들에게 데이터 가공 과정 전반을 투명하게 제공하는 서비스가 가능할 것이다.

뿐만 아니라 방대한 원데이터(Raw Data)를 독자들에게 투명하게 보여줄 수 있는 기술적 도구도 그리 흔하지 않은 편이다. 데이터 저널리즘에서 투명성이 확보되기 위한 전제로서 원데이터 공개는 필수적인 상황으로 변화하고 있다. 그러나 이를 구현할 수 있는 기술적 노력은 비례해서 늘어나고는 있지 않고 있는 상황이다.

결론적으로 데이터 저널리즘의 신뢰 확보를 위해 데이터 가공 과정이 투명하게 드러날 수 있는 통합된 기술 도구를 개발할 필요가 있다. 아울러 저널리스트들이 손쉽게 활용할 수 있는 데이터 버전관리 도구물론 깃허브를 사용하는 것도 대안이 될 수 있다. 하지만 저널리스트에 특화한 별도의 서비스 개발이 공적 영역에서 이뤄지는 것이 더 효율적일 수도 있다고 생각한다.close가 공공영역에서 제공될 필요가 있다. 공공영역을 강조한 이유는 투명성을 확보하기 위한 접근에서 비용의 문제는 공공영역이 부담할 필요가 있다는 판단에서다.

(재)매개 과정의 투명성

RUBICSALGO

카카오가 운영하는 다음앱의 뉴스 편집 알고리즘인 루빅스.(출처 : 카카오 블로그)

두 번째는 매개 혹은 재매개 과정의 투명성 확보다. 저널리즘은 생산 과정 그 이상으로 매개 과정에서 기술에 의존하는 비중이 더욱 커지고 있다. 언론사의 디지털 공간에서 발생하는 매개 과정 그 이후 포털이나 소셜미디어에서 이뤄지는 재매개 과정 등은 대부분, 인간보다는 기술 특히 알고리즘에 의해 수행되는 경우가 많다.

재매개 과정은 현재까지 철저하게 투명성 대상에서 배제돼 왔다. 왜 해당 뉴스가 가장 비중있게 다뤄지는지, 더 긴 노출 시간을 확보하게 되는지는 베일 속에 감춰졌다. 이는 재매개 서비스의 어젠다 설정이 어떤 이해관계 속에서 작동하는지 확인하기 어려운 결과를 낳고 있다. 광고비의 투여 규모에 따라서인지 혹은 외부 권력 관계에 따라서인지 검증하기 어려운 성격을 갖고 있었다.

기사의 생산과정과 마찬가지로 알고리즘도 변경 이력을 공개한다면 어느 정도 투명성 확보가 가능해질 것이다. 페이스북, 구글의 경우 자체 운영 블로그를 통해 중요 알고리즘의 변경 내용을 공개하곤 한다. 하지만 이는 전적으로 해당 기업의 의사와 의도를 신뢰해야만 한다. 블로그 공개 사이에 어떤 변경이 이뤄졌는지에 대해서는 확인할 방법이 없다.

버전 변경이 발생할 경우 자동으로 이력이 남고 그것이 외부에 자동으로 공개되는 기술적 방식으로 알고리즘 변경 사항이 공개된다면 소스코드의 개방 없이도 재매개 방식이 일정 부분 감시받을 수 있는 기회가 열릴 수 있을 것이다. 영업 비밀을 드러내지 않으면서도 알고리즘의 투명성을 확보하는 대안으로 알고리즘 변경 이력 특히 커미트(Commit)별 이력을 공개하는 방안에 대해서 검토해볼 필요가 있다.

이는 깃허브와 같은 오픈소스 저장소가 활용하는 방식이기도 하다. 소스 자체를 공개하지 않고도 커밋와 같은 변경 이력이 남는 기술적 보조도구를 만들어내는 방안에 대해서는 아직 연구가 필요한 대목이다.

※ 이 글은 ‘디지털 저널리즘 투명성 제고를 위한 기술적 제안‘ 자문 내용을 일부 수정, 보강한 것입니다.

네티즌의견(총 1개)