AI 알고리즘이 민주주의를 위협한다고?

'미디어 알고리즘과 민주주의' 학술 행사

가 +
가 -

“우리는 왜 상호작용을 하면 할수록 더 멀어지는가.”

인공지능(AI) 기술 기반 알고리즘이 민주주의를 위협한다는 지적이 나오고 있다. 온라인 공간에서 알고리즘이 개인 성향과 맞는 정보 위주로 추천하고, 생각이 유사한 사람들끼리만 소통을 강화해 확증편향을 불러일으키며 나아가 사회적 양극화를 부추긴다는 얘기다. 이른바 ‘필터버블’, ‘에코 체임버’ 등으로 일컬어지는 현상이다. 이에 대해 황용석 건국대 미디어커뮤니케이션학과 교수는 “과거엔 언론이 실제 세상의 상을 자신들의 프레임 속에서 재구성했다면, 지금은 알고리즘이 새롭게 현실을 재구성하고 있다”라고 지적했다.

지난 11월7일 서울 강남구 D2 스타트업 팩토리(D2SF)에서 열린 ‘미디어 알고리즘과 민주주의’ 학술행사에서 AI 알고리즘에 대한 다양한 논의가 오갔다. 서울대학교 법과경제연구센터 인공지능정책 이니셔티브에서 주최하고 네이버가 후원한 이날 행사에서는 알고리즘이 미디어에 어떤 영향을 미치고 있는지, 이와 관련된 법제도 및 정책적 이슈들은 무엇인지에 대한 논의가 이어졌다.

| 황용석 건국대 미디어커뮤니케이션학과 교수가 ‘미디어 알고리즘과 민주주의’ 학술행사에서 발표에 나섰다.

알고리즘, 사회를 양분하다

‘알고리즘 매개성과 정치적 양분사회: 기술과 사회심리의 상호작용 효과’를 주제로 발표에 나선 황용석 교수는 알고리즘에 의해 매개되는 편향된 여론지각 환경과 닫힌 커뮤니케이션 구조가 우리 사회를 양분한다고 짚었다. 황 교수는 언론과 같은 전통적으로 정보를 매개해주던 집단이 약화되고 개인과 개인이 직접 맞부딪히는 상황이 되면서 알고리즘이 정치 및 정보매개자로서 사회의 접착제 역할을 수행하게 됐다고 설명했다.

이처럼 알고리즘의 영향력이 커지는 상황에서 불거져 나오는 부작용이 ‘필터버블’과 ‘에코 체임버’다.

필터버블은 인터넷 정보제공자가 이용자 맞춤형 정보를 제공해 필터링 된 정보만 이용자에게 도달해 편향된 정보에 갇히는 현상을 말한다.

에코 체임버 효과는 인공적으로 메아리를 만드는 반향실처럼 온라인 공간에서 자신과 같은 목소리가 메아리치고 증폭되는 현상을 일컫는다. 자신과 생각이 비슷한 사람들끼리만 소통하게 되면서 편향된 사고가 강화되는 효과다.

필터버블과 에코 체임버는 자기가 보고 싶은 것만 보고 믿고 싶은 것만 믿는 확증편향을 강화한다. 또 ‘가짜뉴스’를 생산하고 유통하는 원인으로 지목된다.

| 미국에서는 소셜 미디어, 모바일 미디어로 넘어가는 시점에 정치 여론의 양극화가 관찰되고 있다.

이에 대해서는 현재 다양한 연구가 진행되고 있다. 코다 등(Cota, Pastor-Satorras, &Starnini, 2019)의 연구는 트위터 이용자들의 정치적 성향을 계량화해 에코 체임버 효과를 검증했다.

트위터 API를 통해 2016년 브라질 전 대통령 딜마 루세프의 탄핵에 대한 찬반여론을 분석해 에코 체임버로 인한 의견 양극화를 확인하고, 에코 체임버에 갇힌 사람들이 다른 의견을 가진 사람들에게 큰 영향을 미치지 못한다는 점을 확인했다.

페이스북의 감정 전이 실험은 알고리즘이 의도적으로 조작됐을 때 갖는 영향력을 보여준다. 이용자의 뉴스피드 알고리즘을 조작해 긍정적, 부정적 게시물의 노출을 달리한 이 실험에서 긍정적인 게시물이 줄어들면 사용자는 긍정적인 표현을 줄이고 부정적인 게시물을 더 많이 올렸다. 반대로 뉴스피드에 나타나는 부정적인 게시물이 줄어들면 사용자는 긍정적인 게시물을 더 많이 올렸다.

지난해 3월 불거진 케임브리지 애널리티카(CA) 사건 역시 알고리즘을 정치적 의도로 이용할 수 있다는 점을 보여준다.

황 교수는 알고리즘으로 인한 편향된 지각과 닫힌 커뮤니케이션 구조에서 민주주의의 건강성을 회복하기 위해 시민주의 능력을 함양하기 위한 디지털리터러시 교육이 필요하다고 강조했다. 또 디지털플랫폼 사업자들이 알고리즘의 작동 방식을 설명하도록 책임을 져야 한다고 말했다. 알고리즘 작동 방식을 어떻게 설명하는가에 따라 알고리즘의 결과물을 받아들이는 비판적 능력이 달라지기 때문이다.

알고리즘 규제의 한계

이처럼 알고리즘의 사회적 영향력이 커지면서 법의 테두리에서 규제해야 한다는 목소리가 커지고 있다. 하지만 당장 알고리즘을 규제하기는 어렵다는 지적이 나온다.

이날 발표에 나선 구본효 서울대 법과대학원 연구원은 알고리즘과 관련된 규범적 개념을 구체적으로 정의하기 어렵고, 규제의 대상과 내용 사이의 괴리, 기술 혁신 저해에 대한 우려, 알고리즘이 영업 비밀에 해당한다는 점 등을 들어 알고리즘 규제에 한계가 있다고 짚었다.

먼저, 알고리즘의 중립성, 투명성, 설명 가능성, 차별 등의 개념을 구현할 수 있는 형식으로 구체화하기 쉽지 않다는 지적이다. 또 차별적이지 않은 알고리즘 설계가 어렵다는 점도 문제다. 차별 없는 알고리즘을 만들기 위해서는 차별에 대한 규정이 필요한데, 우리가 일반적으로 받아들이는 차별 개념에 기초할 경우 다양한 집단의 평등을 실현하기 어렵다는 연구 결과가 나오고 있다.

규제 대상인 온라인 플랫폼 사업자에게 언론 매체와 유사한 수준의 규제를 강요하기 쉽지 않다는 점도 지적된다. 온라인 플랫폼과 언론을 같은 선상에서 규제하기 위해선 사회적 합의가 우선돼야 한다는 얘기다.

법 규제가 기술 혁신을 저해할 수 있다는 점도 고려돼야 한다. 구본효 연구원은 케임브리지 애널리티카 사건을 겪은 영국도 혁신 저해를 고려해 구체적이고 특정한 규제보다는 일반적인 주의 의무와 모범 지침을 마련하는 데 그쳤다는 점을 들었다.

또한, 알고리즘은 일반적으로 영업비밀에 해당한다. 법으로부터 보호받아야 할 대상이기 때문에 공공의 이익이 인정된 경우가 아니면 이를 공개하도록 규정하기 어렵다는 얘기다. 알고리즘을 공개해도 알고리즘 자체를 이해하기 어렵고, 감시·감독이 힘들기 때문에 실효성이 떨어진다는 주장도 나온다. 제3자가 공개된 알고리즘을 악용할 가능성도 제기된다.

구본효 연구원은 “지금 단계에서는 법 규범의 구체적 내용보다는 알고리즘 이용이 사회적으로 어떤 변화를 가져오는지 우선적으로 분석해야 한다”라고 말했다.

이날 진행을 맡은 고학수 서울대 법학전문대학원 교수는 “알고리즘은 동전의 양면과 같아서 필터버블과 같은 부작용도 있지만, 평소에 검색하지 않으면 접하기 어려운 기사를 제시해주기도 하는 등 긍정적인 측면도 있기 때문에 다양한 맥락에서 고민해야 한다”라고 밝혔다.