“AI 기술은 마법과 구별할 수 있어야 한다”

서울 인공지능 컨퍼런스 2019

가 +
가 -

“충분히 첨단화된 기술은 마법과 구별할 수 없다.”

영국 SF 소설가이자 미래학자인 아서 찰스 클라크가 남긴 말이다. 현재 인공지능(AI)은 마치 마법처럼 우리의 일상에 영향을 미치고 있다. AI가 스팸 메일을 걸러주고, AI가 추천해준 음악을 듣고, 드라마나 영화를 본다. 기업과 공공 영역에도 AI 기술을 기반으로 효율성과 생산성을 개선한 시스템이 속속 도입되고 있다. 하지만 설명할 수 없는 마법 같은 기술은 인간의 통제력 상실로 이어질 위험성이 있다. 이는 곧 AI에 대한 신뢰와 직결된다. 공정성, 설명 가능성, 책임성 등이 최근 AI 분야의 화두로 떠오르고 있는 배경이다.

지난 8월23일 서울 중구 한국프레스센터에서 열린 ‘서울 AI 정책 컨퍼런스 2019’에서는 ‘미래를 향한 인공지능 정책: 우리는 AI를 신뢰할 수 있을까?’를 주제로 다양한 논의가 이어졌다. 서울대학교 법과경제연구센터 인공지능정책 이니셔티브에서 주최하고 네이버, 구글, 아마존웹서비스(AWS)에서 후원한 이날 행사에서는 AI의 신뢰성, 공정성, 설명 가능성 등의 개념을 놓고 관련 학계와 기업, 정부 관계자들이 의견을 나눴다.

| ‘서울 AI 정책 컨퍼런스 2019’

마법이 아닌 기술로 직시해야

데이비드 에델만(R. David Edelman) 매사추세츠공과대학교(MIT) 기술 경제 국가 안보(TENS) 프로젝트 연구책임자는 ‘인공지능의 거버넌스: 머신들은 어떻게 우리의 신뢰를 확보할 수 있는가?’를 주제로 기조연설에 나섰다. 데이비드 에델만 연구책임자는 AI를 마법처럼 신비한 것으로 수용할 경우 AI 기술에 대한 인간의 책임성을 지우고 결과적으로 AI에 대한 신뢰 상실로 이어질 거라고 주장했다.

“기계가 “알아서 학습”함을 시사하는 헤드라인은 단순한 예측 기계에 자율성을 부여하는 보다 광범위한 사회적 위험을 낳을 수 있다. 이는 위험한 잘못된 생각인데, 왜냐하면 이는 인공지능 문화에서 인간의 주체성을 제거하고, 인공지능을 둘러싼 신비스러운 분위기를 만들며, 그 결과 인공지능의 통제에 관한 우리의 책임을 면제할 위험이 있기 때문이다.”

또 공공 분야, 규제 관련 분야에서 AI가 활용됐을 때 잘못된 결과가 나타날 경우 우리 삶에 직접적인 영향을 미칠 수 있기 때문에 이에 대한 논의가 중요하다고 짚었다. 그는 대출 시스템에 AI가 적용됐을 때의 상황을 예로 들었다. 신용점수를 바탕으로 이뤄지는 기존 시스템과 달리 AI는 새로운 방식으로 대출에서 배제됐던 사람들을 신용 시스템 안으로 끌어들일 수 있지만, 대출 결과만 알고 기준을 설명할 수 없는 상황이 발생할 수도 있다는 지적이다. 스마트폰을 밤에 충전시켜놓는 행위와 대출 상환 가능성 간의 높은 상관관계를 들어 대출 여부를 결정할 수도 있다는 얘기다.

‘AI 윤리’를 넘어 ‘AI 거버넌스’ 필요

데이비드 에델만 연구책임자는 AI에 대한 신뢰성을 확보하기 위해 AI 관리에 대한 거버넌스를 구축해나가야 한다고 강조했다. 특히, 이러한 문제들을 단순히 AI 윤리로 다루는 게 아닌 거버넌스, 공공 정책 차원에서 구체화해야 한다고 짚었다. 정치철학과 규제의 관계처럼 AI 윤리를 정책으로 구체화해야 한다는 지적이다. 또 이를 위해 범정부 차원의 세계적인 협업이 필요하다고 얘기했다. 무엇보다 AI 엔지니어와 정책입안자 사이의 협력과 자유로운 의사소통이 중요하다고 강조했다. 법과 기술의 언어 둘 간의 소통이 있어야 AI 거버넌스를 제대로 확립할 수 있다는 말이다.

| 데이비드 에델만 MIT 기술 경제 국가 안보 프로젝트 연구책임자

‘설명 가능한 AI’의 한계에 대해서도 짚었다. AI는 일종의 블랙박스다. AI 모델에 무엇이 입력되고 무엇이 나오는지는 이해할 수 있지만, 내부에서 어떤 과정을 거쳐 의사결정이 내려지는지 알기 어렵다. 설명 가능한 AI가 최근 AI 연구 분야의 화두로 떠오른 이유다. 하지만 설명 가능한 AI는 딜레마를 갖는다. AI 모델의 레이어가 많아질수록 성능이 올라가기 때문에, AI 성능이 높을수록 설명이 어려워지고, 성능이 낮을수록 설명이 쉽기 때문이다.

데이비드 에델만 연구책임자는 설명 가능한 AI가 개념적으로는 좋지만 항상 적용될 수는 없다고 말했다. 의료 기기에 적용되는 AI가 대표적이다. 예를 들어 간암을 99% 정확하게 예측하지만 설명은 어려운 AI 의료 기기와 간암을 50% 정확도로 예측하지만 완전히 설명할 수 있는 AI 의료 기기가 있을 경우 전자를 택하는 게 옳을 수 있다는 얘기다. 데이비드 에델만 연구책임자는 이러한 개념들과 원칙을 대화와 협력을 통해 규제로 만들어나가는 과정이 중요하다고 강조했다.

“AI는 결코 마법이 아니다. 우리가 통제할 수 없는 추상적인 것이 아니며 인간이 통제할 수 있고, 인간이 결정하고 감독할 수 있다. AI로 인한 폐해를 예방할 수 있다. 인간에게 도움을 주기 위해 만들어진 이 기술은 아직 예방할 수 있는 시스템이 없기 때문에 감시·감독해야 한다. 인간이 선택해서 우리가 원하는 공공 신뢰가 확보될 수 있는 방향으로 결정을 해야 한다. 우리는 미래를 만들어나갈 기회가 있다. 선택의 문제다. 선택을 해야 신뢰할 수 있는 AI를 보장할 수 있으며, AI가 인간을 위해 이용될 수 있도록 할 수 있다.”

네티즌의견(총 0개)