인공지능(AI) 챗봇 ‘이루다’ 사태는 정보기술(IT)업계의 ‘뜨거운 감자’였다. 스캐터랩이 개발한 이루다는 차별·혐오발언으로 논란을 일으킨 데 이어 개인정보 유출 의혹까지 받으면서 출시 20여일 만에 운영이 중단됐다. 이를 계기로 국내서는 ‘AI 윤리’ 문제가 촉발된 가운데, 국내 양대 포털인 네이버·카카오는 AI 윤리 준칙을 자체적으로 마련해 내놓고 있다.

17일 네이버는 서울대 AI 정책 이니셔티브(SNU AI Policy Initiative, SAPI)와 공동으로 웨비나를 열고 ‘네이버 AI 윤리 준칙’을 공개했다. 지난 2018년부터 SAPI와 협업한 결과물로, AI에 대한 사회적 요구와 네이버의 기업철학을 통합적으로 반영했다. SAPI는 법학, 공학, 경제학 등 여러 학문분야의 협력을 통해 AI와 관련된 융합 연구를 하는 서울대 산하의 프로그램이다.

이번에 공개한 윤리 준칙은 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 하는 원칙이다. △사람을 위한 AI 개발 △다양성의 존중 △합리적인 설명과 편리성의 조화 △안전을 고려한 서비스 설계 △프라이버시 보호와 정보 보안 등 5개 조항으로 구성됐다. 네이버는 학계와의 협업을 통해 AI의 사회적 요구에 대한 전문가들의 객관적 의견을 수렴하는 한편, 네이버의 관점과 기업 철학을 고려해 원칙을 설계했다고 밝혔다.

단계적인 실험을 통한 구체적인 실천 방안도 제시했다. 사내 커뮤니케이션 채널을 마련해 프로젝트 진행이나 서비스 개발 시 관련 사안을 중심으로 문의하고, 논의도 진행할 수 있도록 할 예정이다. SAPI와도 지속적으로 협력한다. 사례 중심의 이슈 페이퍼 및 커뮤니케이션 채널의 운영 경과를 담은 프로그레스 리포트를 발간하는 한편, 스타트업 지원기관과 연계해 시간과 자원이 부족한 스타트업들도 이 같은 논의를 미리 고민할 수 있도록 경험과 노하우를 전달할 계획이다.

네이버 아젠다 리서치(Agenda Research)의 송대섭 책임리더는 “네이버 AI 윤리 준칙을 수립해 발표하는 것은 이 프로젝트의 시작 단계일 뿐”이라며, “앞으로도 학계와 계속 협업하고, 현장에서의 적용 사례를 축적하며, 지속적으로 실천 가능한 방향으로 준칙을 더욱 구체화하고 개선해나갈 것”이라고 말했다.

같은날 카카오는 전체 직원을 대상으로 AI 알고리즘 윤리 교육에 나선다고 밝혔다. 앞서 카카오는 2018년 1월 국내 기업 최초로 AI 기술 개발 및 윤리에 관한 규범을 담은 ‘카카오 알고리즘 윤리 헌장’을 발표했다. 이 헌장은 △AI 기술 지향점 △사회 계층 등에 관한 의도적 차별 방지 △데이터 수집 관리 원칙 △알고리즘의 설명 의무 △기술의 포용성 △아동과 청소년에 대한 보호 등을 담고 있다.


다음은 네이버 AI 윤리 준칙(NAVER Artificial Intelligence Ethics Principles) 전문

1. 사람을 위한 AI 개발

네이버가 개발하고 이용하는 AI는 사람을 위한 일상의 도구입니다. 네이버는 AI의 개발과 이용에 있어 인간 중심의 가치를 최우선으로 삼겠습니다. 네이버는 사용자의 일상에 편리함을 더하기 위해 기술을 개발해왔고, AI 역시 일상의 도구로 활용될 수 있도록 발전시켜 나가고 있습니다. 네이버는 AI가 우리의 삶을 편리하게 만들어줄 수 있는 기술이지만, 세상의 다른 모든 것처럼 완벽할 수 없다는 점을 인식하고 있습니다. 네이버는 AI가 사람을 위한 일상의 도구가 될 수 있도록, 지속적으로 살펴보며 개선해 나가겠습니다.

2. 다양성의 존중

네이버는 다양성의 가치를 고려하여 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용하겠습니다. 네이버는 다양성을 통해 연결이 더 큰 의미를 가질 수 있도록 기술과 서비스를 구현해 왔습니다. 그 과정에서 사용자에게 다채로운 기회와 가능성을 열어왔고, 합리적 기준 없는 부당한 차별이 발생하지 않도록 노력해 왔습니다. 네이버는 AI 서비스에서도 부당한 차별을 방지하고 다양한 가치가 공존하는 경험과 기회를 제공해 나가겠습니다.

3. 합리적인 설명과 편리성의 조화

네이버는 누구나 편리하게 AI를 활용하도록 도우면서, 일상에서 AI의 관여가 있는 경우 사용자에게 그에 대한 합리적인 설명을 하기 위한 책무를 다하겠습니다. 네이버는 AI에 관한 합리적인 설명의 방식과 수준이 다양할 수 있다는 점을 고려해, 이를 구체적으로 실현하기 위하여 노력하겠습니다.

네이버의 AI는 기술을 위한 기술이 아니며, 기술적 지식이 없이도 누구나 손쉽게 활용할 수 있는 도구가 될 것입니다. 네이버는 서비스의 편리함을 추구하면서, 사용자의 요구가 있거나 필요한 경우에는 AI 서비스에 대해 쉽게 이해할 수 있도록 사용자의 눈높이에 맞춰 설명하겠습니다.

4. 안전을 고려한 서비스 설계

네이버는 안전에 유의하여, 서비스의 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서비스를 설계하겠습니다. 사람을 위한 일상의 도구인 AI가 사람의 생명과 신체를 위협하는 상황이 발생하지 않도록, 네이버는 전 과정에서 안전을 고려해 서비스를 설계하고, 테스트를 거치며, 배포 이후에도 안전성에 대해 지속적으로 살펴보겠습니다.

5. 프라이버시 보호와 정보 보안

네이버는 AI를 개발하고 이용하는 과정에서 개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호될 수 있도록 노력하겠습니다. 또한 개발 단계를 포함해 AI 서비스의 전 과정에서 정보 보안을 고려한 설계를 적용하겠습니다. 네이버는 개인정보 활용에 있어 법적 책임과 의무를 다하는 것을 넘어 개인의 프라이버시도 적극적으로 보호하고 있습니다. 또한 사용자가 서비스를 활용하면서 정보 보안을 우려하게 되는 상황을 원천적으로 차단할 수 있도록, 서비스 전 과정에서 정보 보안을 고려한 설계를 적용하고 있습니다. AI 서비스에 있어서도 마찬가지로, 사용자가 프라이버시와 정보 보안을 걱정하지 않고 AI 서비스를 자유롭게 활용해 삶에 편리함을 더할 수 있도록 노력하겠습니다.

저작권자 © 블로터 무단전재 및 재배포 금지