[IT열쇳말] 로봇 윤리

가 +
가 -

▲인공지능이 판단의 영역에 개입하게 되면서 ‘로봇 윤리’가 사회적 숙제로 대두됐다. (사진: flickr, Gustavo Correa, CC BY)https://www.flickr.com/photos/perrobombay/18784012806/

▲인공지능이 판단의 영역에 개입하게 되면서 ‘로봇 윤리’가 사회적 숙제로 대두됐다. (사진: flickr, Gustavo Correa, CC BY)

컴퓨터의 성능, 대규모 데이터의 생성 및 처리 능력이 향상함에 따라 인공지능의 성능도 비약적으로 증가했다. 책임이 필요한 판단의 영역도 인공지능이 처리할 수 있게 되면서 인공지능이 사회에 미칠 다양한 영향력, 윤리, 책임에 대한 논의가 필요해졌다. 이른바 ‘로봇 윤리’(Robot Ethics)에 대한 논의다.

로봇 윤리의 등장 배경

최초의 로봇 윤리에 대한 사고는 공상과학(SF) 소설에서 등장한다. 한 번쯤은 들어봤을 ‘로봇 3원칙’이다. 과학 소설 저술가인 아이작 아시모프는 로봇에 관한 소설 속에서 ‘로봇 3원칙’이라는 로봇의 작동 원리를 제안한다. 이는 1942년작 단편 ‘런어라운드'(Runaround)에서 처음 언급됐다. 3원칙은 다음과 같다.

  • 로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.
  • 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
  • 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다. (출처 : 위키백과)

이처럼 로봇 윤리에 대한 논의는 이전부터 있었다. 그러나 로봇 3원칙의 유래가 공상과학이었던 것처럼, 이 논의가 당장 현실에서 필요하진 않았다. 하지만 지금은 상황이 조금 달라졌다. 백악관이 지난 10월 내놓은 ‘인공지능의 미래를 위한 준비’(Preparing for the Future of Artificial Intelligence)를 보자. 미국 국가과학기술위원회(NSTC)는 다음과 같이 윤리적인 문제에 대한 논의가 필요함을 말하고 있다.

▲백악관에서 낸 ‘인공지능의 미래를 위한 준비’(Preparing for the Future of Artificial Intelligence) 보고서

▲백악관에서 낸 ‘인공지능의 미래를 위한 준비’(Preparing for the Future of Artificial Intelligence) 보고서

“국가과학기술위원회는 슈퍼 지능을 가진 범용 인공지능의 미래에 대한 우려가 현재 정책에 영향을 끼쳐서는 안 된다고 평가한다. 장기 리스크를 해결할 수 있는 역량을 구축하는 가장 좋은 방법은 이미 존재하는 저위험도 리스크를 먼저 해결하는 것이다. 정부와 기억의 인공지능 전문가들은 인공지능의 진화를 다룰 때, 기술적인 문제들 외에도 장기적인 관점에서 사회와 윤리적인 문제들에 대한 고려를 해야 할 것이다.” – 미 백악관 ‘인공지능의 미래를 위한 준비’ 보고서 전문 번역본, 카카오정책팀

▲알파고와 대국 중인 이세돌 9단 (출처: 구글)

▲알파고와 대국 중인 이세돌 9단 (출처: 구글)

로봇은 복잡한 문제에 대한 결정도 내릴 수 있게 됐다

고인석은 논문 ‘로봇 윤리의 기본 원칙’(2014)에서 로봇윤리를 ‘로봇공학의 실행과 광범위하게 연관된 윤리적 물음들을 다루는 분석과 평가와 토론의 체계’라고 정의한다. 로봇 윤리가 이전의 다른 ‘공학 윤리’ 등과 구분되는 지점은 ‘주체성’이다. 한층 진보한 로봇은 판단하고 실행하는 영역까지 침투한다. 지금까지만 해도 논의가 필요한 사례들이 만들어지고 있다.

▲로봇을 걷어차는 행위는 비윤리적일까? (출처: 보스톤다이내믹스)

▲로봇을 걷어차는 행위는 비윤리적일까? (출처: 보스톤다이내믹스)

인공지능은 단순한 일을 처리하는 데 그치지 않는다. 앞으로 더 중요한 일을 판단하고 결정할 수 있는 능력을 갖추게 된다. 지금도 인공지능의 문제풀이 능력이 비약적으로 증가하면서 이전에는 로봇이 할 수 없으리라 생각했던 영역에서도 성과를 내고 있다. 예컨대 운전자가 없어도 복잡한 도로 환경 속에서 차를 몰고 목적지로 이동할 수 있고, 복잡한 문장구조와 고유명사가 점철된 문장을 비교적 원래 의미에 가깝게 번역해내곤 한다. 인간과의 퀴즈 대결에서 빼어난 능력을 발휘했던 IBM의 슈퍼컴퓨터 ‘왓슨’은 세계적인 암 전문 병원에서 암 진단 실습과정을 밟기도 했다. 이처럼 로봇이 사회에 미치는 영향력이 점점 더 커지고 있다. 인공지능을 이야기할 때 ‘윤리’나 ‘책임’을 본격적으로 다뤄야 하는 이유이기도 하다.

▲신호등을 무시하는 우버 자율주행차량 (출처: 유튜브 영상 갈무리)

▲신호등을 무시하는 우버 자율주행차량 (출처: 유튜브 영상 갈무리)

로봇 윤리를 논의할 수 있는 사례들

자율주행차량은 앞으로 자동차산업의 중요한 변곡점이 되리라고 여겨지는 분야다 기존 제조업체는 물론이고 테슬라, 구글, 우버 등 테크 업체들도 가세하고 오히려 주도하고 있는 분야이기도 하다. 자율주행을 둘러싸고도 윤리적 문제가 대두할 수 있다. 사고의 경우다.

가장 많이 이야기되는 사례는 ‘철로를 이탈한 전차 딜레마’의 자율주행차량 버전이다. 자율주행차량이 지나가고 있는 도로가 있다. 사고는 피할 수 없다. 운전대를 어떻게 꺾는지에 따라서 죽는 사람이 달라진다. ‘이때 자율주행차량이 어떤 선택을 해야 하며, 선택의 책임은 누가 물어야 하는가?’라 질문이다.

▲미국의 무장드론 MQ-9 리퍼 (출처: 미 공군 홈페이지)

▲미국의 무장드론 MQ-9 리퍼 (출처: 미 공군 홈페이지)

인공지능 무기도 중요하다. 무장된 드론이 스스로 표적을 찾아 사살하는 경우가 사례가 될 수 있다. 2015년 7월28일 아르헨티나 부에노스아이레스에서 열린 ‘국제 인공지능 컨퍼런스’에서는 인공지능 무기 군비 경쟁을 경고하는 성명서가 발표됐다. 일론 머스크 테슬라 CEO, 알파고의 아버지인 데미스 허사비스, 애플의 공동 창업자 스티브 워즈니악 등 2500명이 넘는 인공지능, 로봇공학 연구가들이 인공지능 무기에 반대하는 성명서에 동참했다.

▲마이크로소프트의 챗봇 ‘테이’ (출처: 위키피디아)

▲마이크로소프트의 챗봇 ‘테이’ (출처: 위키피디아)

마이크로소프트의 챗봇 ‘테이’는 공개 하루 만에 혐오 발언을 학습하고 내뱉어 문제가 된 바 있다. 이는 사람들로부터 혐오 발언을 학습했기 때문인데, 이처럼 잘못되거나 편향된 데이터를 학습한 인공지능이 잘못된 결과물을 출력할 가능성을 무시할 수 없다. 최근 주목을 받는 인공신경망 기계번역을 적용한 번역기는 성차로 인한 편견을 학습한 번역 결과물을 내놓기도 했다. 예컨대 ‘어린이집 교사’의 경우 주어를 여성형으로 번역하는 식이다.

인공지능은 인간의 전유물로 여겨졌던 복잡한 판단으로도 영역을 확장하고 있다. 조금 더 먼 미래를 내다보면 이런 일도 가능할 수 있다.

  • 로봇이 진단을 잘못 내려 환자의 치료 시기가 늦춰졌다.
  • 로봇이 데이터를 바탕으로 범죄를 저지를 만한 사람을 판단하고 이를 바탕으로 감시를 강화한다.
▲로봇이 인간이 점유하던 판단의 영역에 개입하기 시작했다.

▲로봇이 인간이 점유하던 판단의 영역에 개입하기 시작했다. (출처: flickr, University of Delaware Alumni Relations, CC BY)

로봇 윤리, 로봇을 제작하고 관리하는 사람에 주목하다

윤리와 책임은 ‘주체성’과 이어진다. 로봇 윤리에서는 로봇이 주체적인 존재가 될 수 있는지를 따져본다. 소위 말하는 ‘특이점’이 온다면 모르겠으나, 현재 상황에서는 로봇이 진정한 의미의 자율성을 띄고 존재한다고 보기는 어렵다. 다만 이미 인공지능이 독자적인 판단을 내리는 것처럼 보이는 현실이 왔기 때문에 로봇 윤리의 원칙들은 로봇을 제작하고 관리하는 사람이 통제력을 유지하는 데 초점을 맞추게 된다.

고인석은 “우리가 확인한 것은 로봇이 그것을 기획, 설계하고 제작한 사람들의 정신을 능동적인 방식으로 재현한다는 사실이었다”라며 “이로부터 우리는 로봇의 행위 혹은 작동에 관한 평가가 그것을 기획, 설계, 제작한 주체들에 대한 평가이어야 한다는 기본적인 원칙을 추론할 수 있다”라고 강조한다. 이런 측면에서 로봇 윤리의 원칙은 ‘제작 목적에 부합하는 속성을 충실하게 구현’함으로써 책임 소재를 명확하게 제작자에게 두는 데 있다. 다음과 같은 것들이다.

로봇은 제작 목적에 부합하는 구조와 작동 특성을 일관성 있게 유지하도록 설계, 제작, 관리돼야 한다.
로봇의 기능과 그것을 토대로 로봇에 위임된 권한의 종류와 양상을 포함하는 로봇의 작동 범위는 명확히 규정되고 충실히 준수돼야 한다.

▲MIT 미디어랩 스케일러블 코퍼레이션에서 내놓은 ‘윤리기계’

▲MIT 미디어랩 스케일러블 코퍼레이션에서 내놓은 ‘윤리기계’

로봇 윤리에 대해 더 많은 토론이 필요하다

기계가 문제를 일으켰을 때, 전원 공급을 끊어버리고 부수어 버린다고 이미 벌어진 문제에 대해 책임졌다고 말할 수는 없는 노릇이다. 물론 이와 관련이 명확히 제정된 규칙이 있는 것은 아니지만, 아마도 로봇의 소유주, 로봇의 설계자, 로봇을 가능하게 한 제도와 절차, 이런 제도와 절차를 형성한 사회가 그 무게에 따라 책임을 나누게 될 가능성이 높다.

MIT 미디어랩의 스케일러블 코퍼레이션에서는 ‘자율주행차가 사고의 순간을 맞아 어떤 판단을 내려야 할지’를 두고 ‘윤리기계’(Moral Machine)라는 게임 형태의 도구를 내놓은 바 있다. 윤리기계는 자율주행차량이 맞닥뜨리게 될 딜레마 상황에서 인간이라면 어떻게 행동하겠는지를 묻는다. 이 도구는 당장 판단 기준을 마련하겠다는 것은 아니다. 윤리적 딜레마 상황에서 인간의 관점을 모아보고, 더 많은 토론을 유도하자는 데 그 목적이 있다.

▲MIT 미디어랩 스케일러블 코퍼레이션 ‘윤리기계’ 소개 동영상

로봇과 알고리즘의 윤리와 책임 문제를 따지기 위해서는 우선 로봇이나 알고리즘이 ‘객관적이다’는 환상을 벗겨내는 것도 필요하다. 로봇과 알고리즘의 설계 단계에서는 필연적으로 설계자의 주관과 편견이 들어가고, 이 알고리즘이 학습하는 데이터에도 마찬가지로 인간의 편견이 반영돼 있게 마련이다. 로봇이 객관적이라는 편견을 깨는 것은 더 바람직한 설계를 가능하게 만드는 토론이 활발해지는 계기가 될 수 있다.

※ 참고문헌

로봇공학의 삼원칙, 위키백과
– 로봇윤리의 기본 원칙 – 로봇 존재론으로부터, 고인석, 범한철학 75(2014)
미 백악관 ‘인공지능의 미래를 위한 준비’ 보고서 전문 번역본, 카카오정책팀
인공지능과 로봇, 그들의 윤리와 책임, <블로터>, 채반석