카이스트, ‘양자AI 알고리즘’ 개발.. “기존 AI 뛰어넘을 것”

가 +
가 -

카이스트가 양자컴퓨터에서 비선형적 계산을 할 수 있는 양자 인공지능 알고리즘을 개발했다. 복잡한 데이터를 푸는 데 있어 어려움을 겪던 양자컴퓨팅의 단점을 극복할 수 있어 현존 인공지능 기술을 추월할 것이라 평가받는다.

카이스트는 전기및전자공학부와 AI 양자컴퓨팅 IT 인력양성연구센터 이준구 교수 연구팀이 독일·남아공 연구팀과의 협력 연구를 통해 비선형 양자 기계학습 인공지능 알고리즘을 개발했다고 7일 밝혔다.

큐비트 IBM 양자 컴퓨터로 구현한 양자 기계학습의 예시/사진=카이스트

양자컴퓨팅은 고전 컴퓨팅과 달리 큐비트(양자컴퓨팅 정보 처리 단위) 개수에 따라 정보 공간 차원이 기하급수적으로 늘어난다. 고차원 데이터 특징 공간으로 데이터를 옮기기 때문인데, 이준구 교수 연구팀은 데이터 특징 대비 기하급수적인 계산 효율성을 달성하는 커널 기반 양자 기계학습 알고리즘을 개발한 것이다.

이 교수팀 알고리즘은 IBM 클라우드 서비스를 통해 실제 양자컴퓨터에서 양자 지도학습을 실제 시연하는 데 성공했다. 특히 학습에 있어 매우 적은 계산량으로도 연산이 가능해 대규모 계산이 필요한 현재의 AI 기술을 추월할 가능성을 제시했다고 카이스트는 밝혔다.

이준구 교수팀은 학습데이터와 테스트데이터를 양자 정보로 생성한 후 양자 정보의 병렬연산을 가능하게 하는 양자포킹 기술, 간단한 양자 측정기술을 조합해 양자 데이터 간의 유사성을 효율적으로 계산하는 비선형 커널 기반의 지도학습을 구현하는 양자 알고리즘 체계를 만들었다.

KAIST 박경덕 연구교수가 공동 제1 저자로 참여한 이번 연구결과는 국제 학술지 네이처 자매지인 ‘npj 퀀텀 인포메이션’ 5월 6권에 게재됐다.

연구에 참여한 박경덕 연구교수는 “연구팀이 개발한 알고리즘은 수년 안에 상용화될 것으로 예측되는 수백 큐비트의 NISQ(Noisy Intermediate-Scale Quantum) 컴퓨팅의 시대가 되면 기존의 고전 커널 기반 지도학습을 뛰어넘을 것”이라며 “복잡한 비선형 데이터의 패턴 인식 등을 위한 양자 기계학습 알고리즘으로 활발히 사용될 것”이라고 말했다.