페이스북이 일주일여 앞으로 다가온 미국 대선을 앞두고 특단의 조치를 준비 중이다.  <월스트리트저널(WSJ)>은 페이스북이 스리랑카나 미얀마 등 일부 국가에서만 사용되던 페이스북 알고리즘 제어 도구를 미국 대선에 적용하는 방안을 고민하고 있다고 25일(현지시간) 보도했다.

이 도구는 페이스북 내 특정 게시물의 확산 속도를 늦추고 뉴스 피드 알고리즘을 변경해 사용자에게 노출되는 콘텐츠를 변경할 수 있다. 또 어떤 종류의 콘텐츠가 삭제될 수 있는지에 대한 규칙을 변경하는 권한도 포함된다. 이는 페이스북이 과거 인종 논란 및 정치적 유혈사태가 벌어졌던 소수 국가에서 사용하던 전략이다.

페이스북은 2017년 이슬람교 소수민족인 ‘로힝야족’이 미얀마 정부의 탄압을 받을 당시 로힝야족과 관련된 가짜뉴스가 페이스북 내에 광범위하게 확산됐음에도 이를 방관했다는 이유로 국제사회의 강한 비판을 받은 바 있다.

이후 페이스북은 “우리는 폭력적이거나 혐오스러운 가짜 콘텐츠가 널리 퍼지는 것을 막는 기술을 개선하는데 더 신속하고 성실하게 임할 것”이란 성명을 밝혔다.

WSJ에 따르면 페이스북은 ‘도구’들을 대선 기간 중 폭력적 콘텐츠가 유통되거나 기타 심각한 상황이 발생할 경우에만 사용할 계획인 것으로 전해진다.

문제는 이 같은 계획과 도구의 존재 자체가 페이스북이 ‘마음만 먹으면’ 언제든 특정 게시물 노출과 확산에 관여할 수 있다는 사실을 드러낸다는 점이다. 일부 페이스북 직원들도 대선 중 페이스북의 개입에 정치적 의도가 숨어들 것을 우려하고 있다.

반면, 페이스북은 이번 선거를 통해 ‘페이크북’의 오명을 씻는다는 입장이다. 페이스북과 인스타그램 피드 상단에는 ‘투표정보센터’가 추가됐으며, 로이터와의 제휴를 통해 가급적 실시간으로 공식 선거 결과를 제공할 계획이다.

또 페이스북은 조기 승리를 선언하는 선거 게시물에 경고 표시를 붙일 것이며 코로나19 및 투표와 관련된 가짜뉴스 게시물을 삭제할 것이라고 밝혔다. 아울러 11월 3일 선거 이후 미국의 모든 정치 광고를 무기한 금지하겠다고 밝혔다.

저작권자 © 블로터 무단전재 및 재배포 금지