방통위, AI 윤리 원칙 발표…“사람 중심, 투명성, 차별금지”

'이용자 중심의 지능정보사회를 위한 원칙'

가 +
가 -

방송통신위원회(방통위)가 인공지능(AI) 윤리와 관련된 원칙을 발표했다. 방통위는 AI가 일상적으로 사용되는 지능정보시대를 대비해 이용자 보호에 선제적으로 대응한다는 방침이다.

방통위와 정보통신정책연구원은 11월11일 ‘이용자 중심의 지능정보사회를 실현하기 위한 원칙’을 발표했다.

방통위는 이번 원칙 발표 배경에 대해 “맞춤형 뉴스‧콘텐츠 추천시스템, AI 스피커, 인공지능 면접 등 인간의 의사결정을 보조하거나 대체하는 혁신적인 서비스가 확산되면서, 공정하고 책임 있는 AI 알고리즘의 중요성이 더욱 커져가고 있다”라고 밝혔다.

| 방통위가 11일 ‘이용자 중심의 지능정보사회를 실현하기 위한 원칙’을 발표했다.

이번 원칙 작성에는 주요 기업과 분야별 전문가들이 참여했다. 방통위는 2018년부터 원칙 마련을 위한 기초 연구를 진행했으며, 구글코리아, 페이스북코리아, 넷플릭스, 카카오, 삼성전자, SK텔레콤, KT, LG유플러스, 한국 IBM, 한국 마이크로소프트, 솔트룩스, 인텔코리아, BSA 코리아 등이 자문에 참여했다고 밝혔다.

학계에서는 최경진 가천대 법학과 교수, 이상욱 한양대 철학과 교수, 이수영 카이스트 인공지능연구소장, 황용석 건국대 미디어커뮤니케이션학과 교수, 이상용 건국대 법학전문대학원 교수, 염흥렬 순천향대 정보보호학과 교수 등이 참여했다.

사람 중심, 투명성 등 7가지 주요 원칙

지능정보서비스 기본 원칙의 주요 내용은 ▲사람중심 서비스 ▲투명성과 설명가능성 ▲책임성 ▲안전성 ▲차별금지 ▲참여 ▲프라이버시와 데이터 거버넌스 등이다.

 

  • 사람 중심의 서비스 제공 원칙
    지능정보서비스의 제공과 이용은 사람을 중심으로 그 기본적 자유와 권리를 보장하고 인간의 존엄성을 보호할 수 있는 방향으로 이루어져야 한다.
    지능정보사회의 구성원들은 각자의 자율성을 최대한 보장받으면서, 안전하고, 투명하며, 모든 사람이 고루 혜택을 누릴 수 있는 서비스가 이루어지는 환경을 조성하도록 노력한다.
  • 투명성과 설명가능성 원칙
    지능정보서비스에 포함된 서비스 체계와 작동방식이 이용자에게 중대한 영향을 끼칠 경우, 기업의 정당한 이익을 침해하지 않는 범위에서 이용자가 이해할 수 있도록 관련 정보를 작성한다.
    지능정보서비스가 인간의 신체, 자유, 재산 및 기타 기본권에 피해를 유발하였을 때, 기술적으로 가능한 범위에서 이용자에게 예측, 추천 및 결정의 기초로 사용한 시스템상의 주요 요인을 설명할 수 있어야 한다.
  • 책임성 원칙
    지능정보사회의 구성원들은 지능정보서비스의 올바른 기능과 사람 중심 가치의 보장을 위한 공동의 책임을 인식하고, 관련한 법령과 계약을 준수한다.
    서비스의 제공과 이용으로 인해 발생한 타인의 권익 침해에 대한 법적․사회적․윤리적 책임을 다할 수 있도록, 지능정보사회 구성원들은 지속적인 의견 교환에 참여한다.
  • 안전성 원칙
    안전하고 신뢰 가능한 지능정보서비스의 개발과 이용을 위해 지능정보사회 참여자 모두가 노력한다.
    지능정보서비스가 초래할 수 있는 피해에 대한 복구 방안을 사전에 확보하기 위한 노력으로서, 제공자와 이용자는 상호 협의 하에 그에 대한 자율적인 대비 체계를 수립하고 운영한다.
  • 차별 금지 원칙
    지능정보사회의 구성원들은 지능정보서비스가 사회적․경제적 불공평이나 격차를 초래할 수 있다는 점을 인식하고, 기술 사용에 있어 사회적 다양성을 고려한다.
    알고리즘 설계, 데이터의 수집과 입력 및 알고리즘 실행 등 개발과 사용의 모든 단계에서 차별적 요소를 최소화할 수 있도록 노력한다.
  • 참여 원칙
    지능정보사회의 구성원들은 공적인 이용자 정책 과정에 차별 없이 참여할 수 있다.
    공적 주체는 지능정보서비스의 이용과 관련하여 제공자와 이용자가 실질적으로 의견을 제시할 수 있는 정기적인 통로를 조성하여야 한다.
  • 프라이버시와 데이터 거버넌스
    지능정보사회 구성원들은 서비스의 개발, 공급 및 이용의 전 과정에서 개인정보 및 프라이버시를 보호하며, 특히 지능정보서비스의 제공과 이용 과정에서 데이터 사용이 프라이버시에 미치는 부정적인 영향을 최소화하도록 노력한다.
    지능정보사회 구성원들은 데이터의 활용을 통한 기술적 이익의 향유와 프라이버시 보호 사이의 균형을 위해, 지속적인 의견 교환에 참여한다.

AI 윤리는 국제적 추세

방통위는 AI 윤리 원칙 정립이 국제사회의 추세이며, 이용자 신뢰를 기반으로 발전해나가기 위한 것이라고 설명했다.

실제로 글로벌 IT 기업들은 AI 기술의 부작용에 대한 우려가 늘면서 잇따라 AI 윤리 규범을 내놓고 있다. 마이크로소프트는 2017년 자사의 AI 연구 인력을 위한 ‘AI 디자인 원칙’과 ‘AI 윤리 디자인 가이드’를 소개했다. AI가 효율성을 극대화하되 인류를 위협하지 않고 인류 발전에 기여해야 하며 투명성을 갖추고 기술이 신뢰에 기반해야 한다는 내용을 담았다.

| 윤리적 AI의 필요성이 대두되고 있다.

AI 무기 개발 논란을 겪은 구글은 지난해 6월, AI 기술이 무기 개발이나 감시 도구로 쓰이지 않도록 하며 인종과 성적, 정치적 차별을 결정하지 않도록 하겠다는 내용을 담은 7대 윤리 지침을 내놓았다. 국내 기업 중에는 카카오가 처음으로 AI 기술 개발 및 윤리에 관한 원칙인 ‘알고리즘 윤리 헌장’을 2018년 1월 발표했다.

방통위는 이번에 발표한 원칙을 시작으로, 이용자·기업·전문가·국제사회 등 지능정보사회 구성원들의 의견을 상시적으로 수렴하는 민관협의회를 구성하고 원칙을 지속해서 보완해나갈 계획이다. 또한, 오는 12월 “AI for Trust”를 주제로 국제 컨퍼런스를 개최해 해당 원칙을 소개하고 이용자 보호 방향에 대한 국제적 공감대를 형성해나가는 자리를 마련할 예정이다.