페이스북의 혐오표현 처리 기준은 ‘오락가락’

가 +
가 -

사진=flick, John S. Quarterman, CC BY

비영리탐사보도매체 <프로퍼블리카>가 페이스북의 콘텐츠 검열을 검증한 결과 페이스북의 콘텐츠 검열 기준이 일관적이지 않은 것으로 나타났다. <프로퍼블리카>가 49건의 ‘혐오표현으로 간주될 수 있는 게시물’ 샘플을 추려 처리 여부를 페이스북에 다시 문의한 결과, 페이스북은 그 중 무려 22건의 처리가 잘못됐다고 시인했다. 지난 12월28일(현지시간) <프로퍼블리카>가 이 같은 내용을 보도했다.

페이스북에는 수많은 문제성 게시물이 올라온다. 저작권 침해는 우스운 수준이고, 불법 광고도 판을 친다. 더 심각한 문제는 혐오표현이다. 인종, 성별, 지역, 종교 등 생각할 수 있는 온갖 갈등의 축에서 상상하는 것 이상의 표현이 쏟아지고 있다.

혐오표현의 방치는 그 자체로 폭력이다. 이를 최소화하기 위해 페이스북은 콘텐츠를 검열하는 팀을 운영하고 있다. 사용자의 신고를 기반으로 게시물의 적절성 여부를 판단하고 내부적으로 정해진 수준에서 상응하는 조처를 한다.

그러나 페이스북의 검열 능력에는 많은 물음표가 찍혀 있다. 이전에도 수많은 논란을 불러일으켰다. <프로퍼블리카>는 900건 이상의 게시물을 검증해 페이스북의 콘텐츠 검열에 일관성이 없다는 점을 발견했으며, 49개 아이템을 추려 페이스북에 처리 결과에 대해 다시 확인을 요청한 결과, 22개의 콘텐츠에 대한 판정이 잘못됐다는 답변을 받았다. 예컨대 페이스북은 ‘좋은 무슬림은 XX 죽어버린 무슬림이다”라는 문구가 적힌, 총에 맞아 사망한 듯한 사람의 사진은 받아들일 수 있는 수준으로 판별했지만, 첨부된 이미지 없이 “무슬림에게 죽음을”이라고 쓴 포스트는 내렸다. 둘 다 혐오표현이라는 측면에서 페이스북의 규정을 위반했음에도 하나는 내려지지 않은 셈이다.

페이스북은 현재 7500명 규모의 검수 인력을 운용하는 것으로 알려졌다. 저스틴 오솝스키 페이스북 글로벌 운영 담당 부사장은 “우리가 실수한 것을 유감스럽게 생각한다”라며 “콘텐츠 검열 인력팀이 포함된 안전&보안팀 규모를 2018년에 2만명까지 늘릴 것”이라고 말했다.

네티즌의견(총 0개)