“AI 차별 논란, 규제가 답은 아니다”

네이버 프라이버시 토크 콘서트 말말말

가 +
가 -

미국 아마존은 2014년부터 인공지능(AI)을 활용한 고용 시스템을 준비했다. AI가 입사 지원서를 검토하고 인재를 추천하는 방식이다. 하지만 지난해 초 관련 개발팀을 해산시켰다. 해당 프로그램에 성차별적 요소가 발견됐기 때문이다. AI가 소프트웨어 개발자나 기술직군에서 추천한 지원자의 대다수는 남성이었다. 아마존은 지난 10년간 회사에 접수된 입사 지원서를 기초로 훈련 데이터를 구축했는데, 당시 지원자 대부분이 남성이었던 점을 반영해 데이터 편향이 발생한 탓이다.

최근 AI에 의한 차별 논란이 곳곳에서 불거지고 있다. 공정성이 중요한 사회적 가치로 떠오르면서 AI에 의한 합리적인 의사결정이 이뤄질 거라는 기대도 커지고 있지만, 훈련 데이터의 편향성과 AI 의사결정 과정의 불투명성 등이 문제로 지적되면서 윤리적 AI에 대한 연구도 늘고 있다. 네이버가 12월4일 발간한 ‘네이버 프라이버시 백서’에도 ‘인공지능과 차별’을 주제로 한 연구 결과가 담겼다.

| 고학수 서울대학교 법학전문대학원 교수

지난 12일 네이버 프라이버시 백서 발간을 기념해 열린 세미나에서 고학수 서울대학교 법학전문대학원 교수는 “AI가 제일 잘하는 건 카테고리를 분류하는 일인데, 그룹별로 다르게 내리는 의사결정이 개별 상황에 따라 합당할 수 있지만, 차별과 연결될 수 있다”라고 AI에 내재한 차별 가능성에 대해 짚었다. 또 AI와 차별 문제를 둘러싼 다양한 쟁점을 분석하고 이러한 문제를 해결하기 위해 다양한 사회적 논의가 필요하다고 말했다.

고학수 교수가 짚은 AI와 차별 문제에 관한 과제는 크게 세 가지다. ▲데이터의 편향과 차별 문제▲얼마나 세분화된 데이터를 허용할 것인지에 대한 기준 마련 ▲알고리즘의 투명성 문제 등이다.

먼저, 방대한 양의 데이터를 기반으로 만들어지는 AI 알고리즘은 학습한 데이터에 편향이 있을 경우 이를 그대로 반영하게 된다. 또 학습에 활용되는 많은 데이터가 과거의 의사결정을 반영한 역사적 데이터(historic data)라는 점에서 과거의 편향이나 사회적 차별이 AI에 그대로 적용될 수 있다. 아마존의 성차별적 AI 고용 추천 시스템이 대표적인 사례다. 역사적 데이터에 기반한 AI는 사회적 인식과 규범의 변화를 반영하지 못하고 과거의 편견을 그대로 반영해 의사결정을 하게 되는 셈이다. 편향된 데이터를 보정하는 과정에서 다시 차별과 역차별 논란이 불거질 수도 있다.

어느 정도의 세분화된 데이터 사용을 허용할 것인지도 문제다. 변수를 세분화할 수록 AI의 분석 정확도도 높아지지만, 분류 기준을 어느 정도로 세분화해 잡느냐에 따라 차별 논란이 불거질 수 있다. 예를 들어 은행 대출 신용평가에 AI를 활용할 때 특정 아파트단지 거주자들이 연체율이 낮을 경우 이를 반영해 해당 거주자들을 우대해주는 의사결정을 내릴 수 있다. 하지만 반대로 특정 지역 거주자들에 대해 대출 계약 신청을 거절하는 결정을 내리게 되는 일도 발생할 수 있다. 고학수 교수는 어떤 데이터, 특히 얼마나 세밀한 데이터를 이용해 AI 훈련을 하도록 허용할 것인지 법 정책적인 고민이 필요하다고 분석했다.

| AI는 데이터 편향성과 의사결정 과정의 불투명성 문제를 안고 있다.

또한, 알고리즘의 투명성 문제도 복잡한 쟁점을 안고 있다. AI 알고리즘은 딥러닝 방식으로 고도화될수록 정확도가 높아지지만, 반대로 의사결정 과정을 알기 어려워진다는 문제가 발생한다. 이를 해결하기 위해 알고리즘의 투명성을 높이는 것 자체도 기술적으로 어렵지만, 알고리즘 작동 방식을 공개했을 때 역으로 이를 이용해 부당한 이득을 취하는 일도 벌어질 수 있다. 네이버 등 포털 사이트에서 벌어지는 어뷰징이 그 단면이다. 투명성을 무작정 높일 경우 프라이버시 측면에서도 부작용이 발생할 수 있다. 고학수 교수는 “적정 수준의 투명성이 무엇인지, 서로 충돌하는 법 정책적 목표 사이에서 균형을 이룰 수 있는 해결책이 존재할 수 있는지 따져봐야 한다”라고 말했다.

고학수 교수는 “AI에 관한 다양한 문제들이 나타나고 있는데 이에 대한 많은 고민과 연구가 필요하다”라면서도 “기술 자체를 규제하는 것은 어리석은 일이며, 실제 기술의 활용에 대한 맥락을 살펴야지 기술에 초점을 맞춰 규제할 경우 부작용이 생길 가능성이 높고, 개별 상황에 따라 다양한 상황을 살펴야 하지 인공지능 알고리즘 규제 법 같은 일반론적인 법이 들어오면 모두 망한다”라며 규제 만능주의를 강하게 비판했다.

또 고 교수는 “민감정보나 차별에 관한 법과 사회적 논의에 있어서도 한국은 유럽이나 미국 등 선진국에 비해 고민이 부족하다”라고 덧붙였다.

이날 행사를 진행한 네이버 이진규 이사는 “우리나라에 개인정보 보호와 관련된 기초 분야 연구가 부족하다”라며 “앞으로 개인정보 보호 법제를 개편하거나 새로운 거버넌스를 만들 때 네이버 프라이버시 백서에 실린 연구가 기초자료로 활용되길 바란다”라고 말했다.

네티즌의견(총 0개)