레이 커즈와일 “인공지능 두려워 말라”

가 +
가 -

세계적인 인공지능 연구자이자 구글 엔지니어링 이사인 레이 커즈와일이 인공지능의 위험성을 경고한 ‘테슬라’의 일론 머스크와 스티븐 호킹 박사에 대해 “두려워할 필요 없다”고 반박했다.

인공지능 연구자 레이 커즈와일 구글 엔지니어링 이사.(출처 : 플리커 Ed Schipul, (CC BY-SA 2.0)

인공지능 연구자 레이 커즈와일 구글 엔지니어링 이사.(출처 : 플리커 Ed Schipul, CC BY-SA 2.0)

레이 커즈와일은 <타임> 인터넷판 2014년 12월호에 기고한 글에서 “인공지능이 실존적 위협이 된다면 그게 인류에겐 첫 번째는 아니다”라며 “인류가 방어 체계를 전혀 가지고 있지 않았던 생물학 무기 테러의 위험도 있었다”고 말문을 열었다.

커즈와일 이사는 “인공지능에 대한 전형적인 비관론적 영화들을 보면 한두 명의 개인이나 그룹이 인공지능의 지배에 저항해 전투를 벌이거나 혹은 인공지능과 인류가 세계의 지배권을 놓고 전쟁을 하는 방식”이라며 “인공지능은 이런 영화들처럼 한두 명의 손에 달려있는 게 아니라 10·20억명의 손에 쥐어진 것”이라고 비판했다.

레이 커즈와일은 스티븐 핑커의 2011년 저서 ‘인간 본성 속의 더 나은 천사’를 인용한 뒤 “지난 600년 전과 비교해 전쟁으로 인한 사망률은 100배 이상 감소했고 폭력도 줄어들었다”면서 “폭력과 범죄가 증가하고 있다는 인상은 다른 트렌드 때문”이라고 얘기했다. 때문에 영화처럼 인공지능으로 디스토피아적 미래가 현실화될 가능성은 높지 않다는 것이 그의 주장이다.

그는 인류에 위험한 기술을 통제했던 경험을 갖고 있다고 말했다. 그는 “우리는 인공지능과 같은 급부상하는 기술을 안전하게 유지할 수 있는 전략을 가지고 있다”면서 생물학 분야의 ‘재조합 DNA’(Recombinant) 기술을 사례로 제시했다.

‘재조합 DNA’는 유전자 조작의 문을 연 기술로 그것이 인류에 미칠 위험성 때문에 생물학자들 스스로 1975년 아실로마 회의에서 모라토리엄을 선언한 바 있다. 당시 회의에서 생물학자들은 ‘재조합 DNA’ 실험에 적용할 가이드라인도 함께 발표했다

커즈와일은 “이 가이드라인은 잘 지켜져 왔고 우연이든 의도적이든 중차대한 문제는 그간 발생하지 않았다”면서 “오히려 지난 39년 동안 의료 분야에서 중대한 진보를 우리는 지켜봐 왔다”고 말했다. 인공지능도 이 같은 전략을 채택한다면 안전하게 관리될 수 있다고 덧붙였다.

그는 “아실로마 가이드라인처럼 개별 인공지능 프로젝트의 미션을 명확히 정의하고 승인되지 않은 사용을 금지하기 위한 암호화된 세이프가드 안에서 개발하도록 하는 방안도 하나의 아이디어일 것”이라고 대안을 내놓기도 했다.

그는 인공지능의 위험을 제거할 수 있는 대안은 인류 스스로 도덕적이고 윤리적인 사회를 건설하는 것이라고 했다. 그는 “미래에 있을지도 모를 파괴적 갈등을 피할 수 있는 최선의 방법은 폭력을 감소시켜왔던 우리 사회적 이상을 계속 진보시키는 것”이라며 “그것이 궁극적으로 인공지능을 안전하게 관리할 수 있는 방법”이라고 강조했다.

네티즌의견(총 0개)