AI 챗봇 ‘이루다’ 논란에…방통위, AI 법체계 손본다

가 +
가 -

AI 감성 챗봇 ‘이루다’ 이미지(사진=이루다 페이스북)

인공지능(AI) 챗봇 ‘이루다’가 성적 발언 및 개인정보 유출 논란에 휩싸인 가운데 방송통신위원회(이하 방통위)가 AI 관련 법체계 정비에 나선다.

방통위는 14일 이용자에게 피해를 야기한 AI 서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비한다고 밝혔다. 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고 9월부터 센터 내에 법제 연구반을 운영 중이다.

개발사 스캐터랩이 운영 중인 AI 챗봇 이루다는 사용자들과 나눈 성적, 성소수자 혐오 대화 내용이 인터넷 커뮤니티에 게재되면서 논란이 시작됐다. 이후 스캐터랩이 이루다를 개발하는 과정에서 연애 분석 앱 ‘연애의 과학’으로 이용자들의 카카오톡 데이터를 수집해 사용한 과정에서 개인정보보호법을 위반했다는 의혹도 제기됐다. 결국 개인정보보호위원회와 한국인터넷진흥원(KISA)은 스캐터랩 사무실을 방문해 개인정보 유출 의혹에 대한 조사를 시작했다.

이에 방통위는 AI 관련 법체계 정비뿐만 아니라 AI 서비스로부터 이용자를 보호하기 위한 지침도 마련한다. 방통위는 2019년 11월 차별금지와 인간존엄성 보호 등의 내용을 포함한 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표한 바 있다. 방통위는 올해부터 이 원칙을 실천하기 위한 구체적 사례‧방법 발굴할 계획이다. 방통위는 이 과정에서 기업들의 AI 서비스 개발이 위축되는 것을 방지하기 위해 현재 기업들이 실천 중인 AI 윤리 관련 모범사례를 찾아 실행지침을 마련한다는 방침이다.

또 방통위는 오는 2022년부터는 신규 예산을 확보해 AI 윤리교육 지원대상을 이용자에서 사업자로 확대할 방침이다. 교육 내용에는 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고 그에 따른 문제를 최소화해 서비스를 이용할 수 있는 방안 등이 담길 예정이다. 방통위는 스타트업도 교육 대상에 포함해 AI 역기능 등 위험관리 컨설팅을 지원하는 사업도 추진한다.

한상혁 방통위원장은 “AI서비스는 더 많은 부가가치를 창출하고 생활의 편의를 더해줄 것이지만 올바른 윤리와 규범이 없는 AI서비스는 이용자 차별과 사회 갈등을 초래할 수 있다”며 “AI의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람중심의 AI를 위한 정책을 추진할 것”이라고 말했다.