“사람들에게 중요한 영향이 미치는 일을 단지 ‘알고리즘’의 일이니 모른다는 무책임한 태도로 일관하는 게 옳은 건지 반문하고 싶습니다.”

참여연대·민주사회를 위한 변호사모임 등 120개 시민사회단체는 24일 서울 종로구 통인동 참여연대 아름드리홀에서 기자회견을 열고 인권과 안전, 민주주의를 보장하는 인공지능(AI) 정책 마련을 정부·국회에 촉구했다.

단체들은 공동선언문을 통해 “인공지능이 서비스나 제품을 추천·제공하는 단계부터 노동, 금융, 사회복지, 치안, 군사 영역에서 중대한 의사결정을 내리는 단계까지 나아가고 있다”고 강조하고 “당사자나 일반 국민이 인공지능의 도입·운영·결정에 있어 발언과 참여 기회를 전혀 보장받지 못하고 있다”고 비판했다. 그러면서 “인공지능 정책은 소비자·노동자·시민에게 투명하게 공개되고 참여가 보장돼야 한다”며 “피해를 입거나 인권을 침해당하면 권리구제도 보장돼야 한다. (AI의) 의사결정에 대해 설명하지 못한다면 공공부문 등 특정영역에서는 시스템을 사용해서는 안 된다”고 강조했다.

이들은 ①인공지능 국가 감독 체계 마련 ②정보 공개와 참여 ③인공지능 평가·위험성 통제 ④권리구제 절차 보장을 담은 인공지능 규율법을 제정해야 한다고 촉구했다.

▲ △이들 단체는 이루다 사건을 통해 이용자가 믿고 맡긴 민감정보를 기업이 무단 사용할 수 있는 현실을 보았다고 지적했다. 인공지능 제품·서비스를 믿고 안심하며 사용하기 어렵게 됐다는 것이다.(이미지=이루다)
▲ △이들 단체는 이루다 사건을 통해 이용자가 믿고 맡긴 민감정보를 기업이 무단 사용할 수 있는 현실을 보았다고 지적했다. 인공지능 제품·서비스를 믿고 안심하며 사용하기 어렵게 됐다는 것이다.(이미지=이루다)

“인공지능도 인권·법률 지켜라”

단체들은 알고리즘의 정보 비대칭성을 비판했다. 공공기관·민간기업 사이에서 늘어나고 있는 ‘AI 채용’이 대표적인 사례다. 불합격하더라도 탈락된 이유를 확인할 수 없고, AI 면접·서류평가의 공정성을 비롯해 면접자의 사투리나 외모 등을 차별했는지 여부도 제대로 된 검증이 이루어지지 않고 있다는 지적이다.

김민 진보네트워크센터 활동가는 “AI 채용은 데이터 표본의 편향성, 누락 등의 문제가 발생할 수 있다”며 “한 달여 전 유럽연합(EU)은 규제 법안에서 채용 과정이나 노동자의 권리에 영향을 미치는 인공지능은 고위험군으로 규정했다”고 말했다. “고위험군 AI는 출시 전 위험을 평가하고 감사를 위한 데이터 기록이나 문서화를 반드시 해야 하며, 사용자에게 명확한 정보를 제공해야 한다고 엄격하게 명시했다”고 짚었다.

앞서 차별·혐오발언을 비롯해 무분별한 개인정보 수집 등으로 논란을 일으킨 ‘챗봇 이루다’ 사태가 재발되지 않으려면 법·제도적 정비가 필요하다는 주장도 이어졌다. 장여경 정보인권연구소 이사는 “챗봇 이루다의 개인정보위반 사건을 목격하면서 인공지능도 개인정보 보호법을 비롯한 현행 법률을 준수해야 할 책임이 있다는 것을 확인했다”고 말했다. 또 “딥러닝 메커니즘 등이 법적으로 통제하기 어렵다고 하나 고용·사회 여러 생활·공론장·민주주의, 심지어 생명과 안전까지 위협한다면 이를 마냥 신비로운 기술이라고 둬야 하는지 근본적인 의문을 갖게 된다”고 했다.

오정미 참여연대 공익법센터 실행위원도 “인공지능 정책은 사용하는 소비자, 노동자, 시민들에게 공개돼야 한다”며 “특히 공공부문에서 AI가 의사결정을 지원할 땐 설명이 가능해야 한다는 조건이 보장돼야 할 것”이라고 말했다.

▲ △시민단체 회원들이 인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 시민사회 선언 기자회견을 하고 있다.
▲ △시민단체 회원들이 인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 시민사회 선언 기자회견을 하고 있다.

이들은 특히 공공기관은 인공지능 도입 시 훈련 데이터셋이나 처리방법 등 각종 정보를 공개해야 할 의무가 있다고 강조했다. 민간에서 조달한 시스템을 사용하는 경우에도 똑같이 적용돼야 한다는 주장이다. 또, 공정거래위원회, 국가인권위원회, 개인정보보호위원회를 국가의 인공지능 감독 체계에 포함할 것을 제안했다. 아울러 ‘고위험’으로 분류된 인공지능은 편향성을 지속적으로 점검하고 피해자 권리구제 시 검증이 가능하도록 각종 데이터와 방법론을 문서화하고 기록·보존해야 하며 필요한 경우 인적 개입을 의무화하는 등 국가적 관리가 필요하다고도 지적했다. 특히 피해를 입거나 인권을 침해 당한 경우 권리구제를 위해 인공지능의 사용 여부와 이의 제기 등 각종 정보가 공유돼야 한다고 이들은 주장했다.

국내서만 이 같은 논란이 이는 것은 아니다. 앞서 미국 법원은 민간기업에서 조달한 교육청의 교사 평가 알고리즘의 투명성·적법절차 부족을 이유로 운영을 중단시킨 바 있다. 공공기관의 중요한 의사결정에는 ‘비밀 알고리즘’을 써서는 안 된다고도 설시했다. 캐나다 정부는 2019년부터 공공기관이 도입·운영하는 AI 의사결정 시스템을 영향평가하고 위험수준별로 정보공개 등의 의무를 부과하는 훈령을 시행 중이다. 뉴질랜드 정부도 지난해부터 공공기관의 인공지능 알고리즘을 위험수준별로 규제하고 있다.

장 이사는 “공공부문 인공지능에 대해서는 세계 여러 나라가 조달 절차에서 일정하게 인공지능의 행위를 설명할 것을 요구하고 있다”며 “딥러닝에 적용된 알고리즘과 사용된 데이터셋, 조치 등을 문서화하고 피해 본 개인이 사법접근성을 위해 이 같은 정보를 요구하면 주는 등의 방안이 있다”고 말했다. 또 “의사결정 이유를 도저히 알 수 없는 경우도 있는데, 공공부문 등에 있어 ‘설명할 수 없는 인공지능’은 도입하지 못하도록 할 수도 있다”고 말했다.

단체들은 이날 발표한 선언문을 국회와 관련 상임위원회, 정부부처에 민원 등으로 제출할 계획이다. 장 이사는 “지금까지 시민사회 단체들은 사안에 따라 개별적으로 문제를 제기해 왔다”며 “이를 넘어서 포지티브하게 인공지능을 규율하기 위한 제도나 정책을 구체적으로 제안할 수 있는 계기가 될 것”이라고 말했다.

저작권자 © 블로터 무단전재 및 재배포 금지