[제1010회] 양자컴퓨팅과 AI : 기회와 도전

등록일
2025.10.23
조회수
1112
키워드
금요강좌 양자컴퓨팅
담당부서
경제교육기획팀

자막

[제1010회] 양자컴퓨팅과 AI: 기회와 도전
(2025. 09. 26(금), 연세대학교 응용통계학과 박경덕 교수)

(박경덕 교수)

안녕하세요. 연세대학교 응용통계학과에서 부교수로 재직 중인 박경덕이라고 합니다. 또한 올해 9월에 개설이 된 양자정보학과에서도 겸직을 하고 있고, 그리고 양자정보기술연구원의 부원장도 맡고 있습니다. 먼저 오늘 한국은행 금요강좌에 저를 초대해주셔서 너무 감사드리고요. 금요일에 되게 귀한 시간에 바쁘신 와중에도 참여해주신 모든 여러분들께 감사드립니다. 그래서 앞서 소개해주신 것처럼 저는 오늘 양자컴퓨팅, 그리고 AI가 앞으로 저희들에게 어떠한 기회를 주는지, 도전과제가 무엇인지 이런 것들을 여러분들과 함께 나누려고 합니다. 제가 경제 전문가는 사실 아닙니다. 저는 심지어 물리학 박사이고요. 그래서 제가 경제에 대해서는 사실 잘 모릅니다. 그래서 양자컴퓨팅에 대한 경제적인 파급 효과나 이런 것들을 제가 심도있게 나누는 그런 자리는 아닐 것 같고요. 기술적인 측면에서 양자컴퓨팅 기술이 어떤 것인지 기술 소개를 드리고, 이것이 AI와 어떤 식으로 융합이 될 수 있을지 그런 것들을 기술적인 측면에서 말씀을 드리고자 합니다. 그래서 앞부분에서는 양자컴퓨팅에 대해 최대한 간단하게 개념 설명을 드리고, 그다음에 이것이 어떻게 AI분야와 융합이 될 수 있는지 설명을 드리도록 하겠습니다.

[Quantum Computing] (p.2)

먼저 양자컴퓨팅에 대한 간단한 소개로 시작을 하려고 하는데요. 단순하게 양자컴퓨터라고 하면 정보를 처리하는 장치인데, 양자역학적인 법칙에 기반해서 정보를 처리하는 장치입니다. 그러니까 정보를 처리할 때 어떤 법칙을 따를 텐데 그 법칙이 양자역학적인 법칙이라는 것이죠. 계산을 하는 데 있어서 모든 것이 갑자기 무조건적으로 좋아지는 그런 컴퓨터라기보다는 기존과는 다른 방법으로 연산을 수행하는 컴퓨터라고 생각하시면 됩니다. 기존과 다른 방법으로 연산을 수행하다 보니까 장점이 있을 수도 있지만, 한편으로는 단점과 풀어야 할 도전과제들이 생기기도 합니다. 양자역학이라고 하면 아마도 지금 수강하러 오신 분들의 배경이 다양할 거라고 생각이 되는데요. 어쩌면 물리를 전공하신 분이 계실 수도 있고 또는 한 번도 양자역학을 공부하지 않으신 분도 계실 수도 있고 배경이 상당히 다양할 것이라고 생각합니다. 근데 한 번 정도는 양자 세계에서 파동과 입자의 이중성 이런 얘기를 지나가다 한 번 정도는 들어보셨을 수도 있을 것 같아요. 양자역학에서는 흔히 파동과 입자의 이중성, 파동이기도 하면서 입자이기도 한, 그런 상당히 모순적인 현상이 실제로 일어나고 있다고 얘기를 하는데. 양자컴퓨터는 어쨌든 이런 양자역학 법칙을 기반으로 연산을 하다 보니까 양자컴퓨터도 어떻게 보면 파동-입자 이중성이 있는데, 이거를 아날로그-디지털 이중성이라고도 볼 수 있습니다. 정보 처리하는 과정을 보면 아주 단순하게 일단 입력단이 있고, 입력된 데이터가 처리가 되고, 끝에 가서 출력이 되고 이렇게 아주 단순한 세 가지 단계가 있을 텐데요. 데이터가 입력이 되고 처리되는 과정은 마치 양자역학의 파동과 같은 성질을 사용하게 됩니다. 그리고서 그 데이터를 읽어내는 출력단에서는 입자와 같은 성질이 드러나게 되죠. 그래서 양자컴퓨터는 아날로그-디지털 이중성을 가지고 있다, 이런 식으로도 표현을 할 수가 있고요. 그렇다 보니까 단순히 디지털 방식으로만 하는 컴퓨터들보다 더 나은 거를 할 수도 있고, 동시에 단순히 모든 걸 아날로그적으로 처리하는 그런 방법들보다 조금 더 안정적인 연산이 가능하기도 합니다. 그래서 양쪽의 장점을 다 가져올 수 있게 됩니다. 궁극적으로 양자역학에서 얘기하는 중첩이나 간섭, 얽힘 이런 다양한 물리적인 양자 효과들을 잘 활용해서 고전적인 정보 처리 한계를 넘어서는 방법을 탐구하는 것이 양자컴퓨팅 분야라고 생각을 하시면 될 거 같습니다. 제가 앞서 말씀을 드렸지만 양자컴퓨터라는 것이 기존의 디지털 컴퓨터보다 모든 것이 갑자기 좋아지는, 기존의 컴퓨터를 뛰어넘는 그런 컴퓨터라고 이해하기보다는 다른 방법으로 연산을 수행하는 겁니다. 그렇기 때문에 분명히 기회도 있습니다. 좋아지는 부분들도 있고 장점들이 있는데, 한편으로는 새롭게 발생하는 문제점들이 있습니다. 그래서 기회와 도전을 동시에 우리에게 주고 있다고 생각을 하시면 될 것 같습니다.

[Quantum Computing] (p.3)

좀 다르게 양자컴퓨터를 살펴보면요. 슈뢰딩거 방정식이라는 것도 아마 한 번 정도는 지나가다가 들어보셨을 것 같은데, 양자역학에서 물리시스템이 어떻게 시간에 따라 변하는지를 설명해주는 방정식인데요. 양자컴퓨터는 양자역학적인 시스템이니까 결국에는 슈뢰딩거 방정식을 따르는 계산장치라고도 생각을 할 수 있습니다. 근데 사용자 입장에서 어쨌든 이거를 잘 제어해서 유용한 데 써야 되지 않겠습니까? 그러니까 양자컴퓨터를 사용한다는 것은 결국에는 슈뢰딩거 방정식 안에 있는 변수들을 잘 조작해서 특정한 연산을 수행한다. 이렇게 생각을 하시면 될 거 같습니다. 슈뢰딩거 방정식을 제가 슬라이드에 이렇게 써 놨는데, 미분방정식이죠. 이 방정식은 선형 방정식입니다. 그래서 형태 자체를 보면 상당히 단순한 방정식으로 보입니다. 그러니까 이 미분 방정식에서 풀어야 되는 해는 슬라이드에 시간에 따라 변하는 그리스 문자 프사이(ψ). 결국에는 우리가 어떤 특정한 시간에 저 프사이라고 하는 값이 무엇인지, 저게 곧 양자상태를 뜻하는 건데요, 그게 뭔지 알고 싶은 건데. 그리고 프사이라고 하는 양자 상태가 시간에 따라서 저런 방정식을 통해서 변하고 있다, 이런 걸 얘기해 주는 건데. 이 방정식 자체는 상당히 단순하게 보입니다. 그냥 선형 방정식인데요. 저희가 양자컴퓨터에서 얘기하는 기본적인 연산 단위가 큐비트라고 하는 게 있는데, 마치 비트처럼. 이 큐비트 개수가 증가함에 따라서 방정식의 차원이 지수적으로 증가를 합니다. 그러니까 제가 슬라이드에 써 놨지만 저 방정식에 들어가는 행렬의 크기가 큐비트의 개수가 늘어남에 따라서 익스포넨셜하게 커지는 거죠. 엄청나게 빠르게 고차원 방정식이 돼서, 이렇게 우리가 수학적인 모델을 가지고 있지만 실제로 이거를 우리가 지금 가지고 있는 디지털 컴퓨터, 디지털 컴퓨터를 저희가 고전 컴퓨터라고도 하는데요. 고전 컴퓨터가 바로크 시대의 컴퓨터란 의미가 아니라, 양자역학적인 법칙을 따르지 않는, 고전적인 방법에 따라서 정보를 처리한다는 의미로 고전 컴퓨터라는 용어를 계속 쓰는데 그냥 디지털 컴퓨터라고 바로 생각하셔도 괜찮습니다. 어쨌든 이런 문제를 양자컴퓨터가 어떤 일을 하고 있는지 이거를 수학적인 모델이 있으니까 디지털 컴퓨터로 그냥 연산을 해 볼 수도 있는데, 그렇게 하려면 방정식의 차원이 아주 빠르게 큐비트 개수가 커짐에 따라서 지수적으로 증가를 하기 때문에 이거를 고전 컴퓨터로 따라하는 것은 어렵다, 이렇게 됩니다. 근데 양자컴퓨터는 자연스럽게 이 연산을 계속 수행하고 있는 것이죠. 그러면 우리가 이거를 활용해서 어떤 문제를 풀겠다고 하면 결국에 방정식의 어떤 변수들을 조작해야 되는 건데. 이게 조금은 추상적일 수도 있지만, 우리가 풀고자 하는 문제를 결국에 이 방정식의 변수에 해당한다고 볼 수 있는, 저 H라고 제가 써 놓은 그 행렬에 문제를 인코딩하거나 또는 이 방정식의 초기값, 프사이, 시간이 0일 때의 초기값에다가 문제를 잘 인코딩해 놓고 그다음에 H라고 하는 이 방정식의 변수를 특정한 시간 동안에 잘 제어를 해야 되는 겁니다. 그니까 사용자가 이걸 제어할 수 있어야지 컴퓨터라고 하는 것일 텐데요. 그래서 이렇게 잘 제어를 해 놓고 끝에 가서 이 방정식의 해를, 프사이라고 하는 거를 읽어내는 거죠. 어쨌든 프사이가 양자컴퓨터의 상태를 표현하는 거니까 자연스럽게 저 방정식을 따라서 계속 바뀌다가, 끝에 가서 t만큼의 시간이 흘렀을 때 딱 얻게 되는 그 상태를 우리가 읽어내면 되는 겁니다. 읽어내면서 거기서 우리가 풀고자 했던 문제의 해답을 찾아야 되겠죠. 그런데 저 ψ(t)라고 하는, 최종적으로 양자컴퓨터가 얻게 되는 양자 상태를 우리가 읽어내게 되면 양자역학의 확률적인 상태 때문에 확률 분포가 튀어나오게 됩니다. 여러 번 이 과정을 반복하다 보면 확률 분포를 이렇게 만들어 낼 수가 있는데, 이 확률 분포 안에 우리가 풀고자 하는 문제의 해답이 들어있어야 되는 거예요. 그러니까 기존에 문제를 풀던 방식과는 전혀 다른 방식으로 문제를 풀어야 됩니다.

[Comparison to Classical Bits] (p.4)

고전적인 계산 방법들이랑 양자컴퓨터가 어떻게 연산을 하는지를 간단하게 표로 비교를 해보면 일단 우리가 익숙한 디지털 방식은 0과 1을 쓰는 것이죠. 가장 왼쪽에 있는, 0과 1을 쓰는 겁니다. 그러면 수학적으로는 그냥 0과 1이라고 이렇게 쓸 수도 있고 또는 벡터를 써서 표현을 할 수도 있습니다. 1 0, 0 1 이런 벡터를 써서 표현을 할 수도 있습니다. 이렇게 그냥 0과 1의 경우에는 굳이 벡터를 쓸 필요가 없는데, 고전 컴퓨팅에서도 Randomness를 넣어 가지고 알고리즘 수용하는 그런 Randomize 알고리즘 같은 것들이 있는데, 그런 데서는 기본적인 0과 1을 좀 더 일반화 해서 probabilistic한 비트를 쓸 수 있습니다. 여전히 고전적인 비트인데요. p라는 확률이 0이 되고 1 - p의 확률은 1이 되고, 이런 경우에는 벡터 표현법이 반드시 필요해지게 되고요. 그래서 0일 확률과 1일 확률 이렇게 표현하게 되고요. 수학적으로 저런 식으로 표현을 할 수가 있고. 근데 양자의 경우로 넘어가면 양자도 벡터를 통해서 양자 상태, 큐비트의 상태를 표현하게 되는데. 여기서는 양자 상태를 표현해 주는 벡터의 성분들이 단순히 확률값을 가지는 게 아니고, complex number를 가지게 됩니다. 고전 정보는 확률로 다 표현이 되는 거거든요, 어떻게 보면. 그러니까 real이고 또 음수가 되면 안 되고 그런 조건들이 있겠죠. 근데 양자로 넘어오면 그런 조건들이 더 완화가 됩니다. 그래서 complex number일 수 있고, 음수일 수도 있고. 그래서 좀 더 일반화된 수학적인 모델을 가지게 됩니다. 그리고 끝에 가서 측정을 하게 될 때는 probabilistic bit의 경우에는 특정 확률 0이 나오거나, 특정 확률 1이 나오는 건데. 양자는, 양자도 결국에 확률이 나오게 되는데 확률이 계산되는 과정이 조금 다른 거고요. 그리고 데이터가 변하는 과정들도 결국에 고전적인 정보는 다 Stochastic matrix, 그러니까 확률 분포가 어떻게 변하는지를 표현해 주는 그런 선형적인 Transformation으로 다 설명이 가능합니다. quantum도 선형적인 Transformation으로 다 설명이 가능한데, Stochastic matrix가 아니라 Unitary라고 하는 특정한 성질을 가지는 matrix로 다 표현이 된다. 여기서 핵심적으로 좀 말씀을 드리고 싶었던 거는, 양자역학이 물론 물리적인 의미가 있지만 수학적인 관점에서 봤을 때는 확률 이론을 좀 더 일반화시킨 것이라고도 생각을 할 수가 있습니다.

[Quantum Computing: Basic Idea] (p.5)

양자컴퓨터가 실제로 연산을 해 나가는 과정을 보면, 일반적인 디지털 컴퓨터는 입력을 하나 받아 가지고 그다음에 어떤 함수를 계산해서 출력값을 뱉어냅니다. 근데 이거는 디지털 컴퓨터니까 모든 연산은, 모든 정보는 가장 로우 레벨로 가면 Binary형태로 연산이 수행이 되고요. Transistor안에서 다 Binary 형태로 연산이 수행되고. 그래서 f라고 하는 것은 분리한 로직 연산이 되는 것이죠. 이 분리한 로직 연산들을 가지고 이걸 막 엮어서 아주 복잡한 일들을 더 하게 되는 것인데, 결국에는 가장 단순하게 저렇게 표현을 할 수가 있습니다. 근데 양자컴퓨터는 네 개의 비트가 입력된다고 하면 네 개의 비트가 가질 수 있는 모든 가능한 조합, 16개가 될 텐데, 그게 동시에 입력될 수가 있다는 것이죠. 동시에 입력이 돼서 f(x)라고 하는 함수를 다 동시에 계산을 할 수가 있는 겁니다. 그러니까 양자컴퓨터는 병렬 컴퓨터가 아니라 단일 프로세서인데, 단일 프로세서에서 병렬 처리를 하게 되는 겁니다. 동시에 모든 가능한 조합을 처리한다는 것이 얼마나 대단한 것인지 감을 잡아 보려면 대략적으로 70큐비트 정도를 가지고 있는 양자컴퓨터가 있다고 생각을 해 보겠습니다. 예시로 말씀드리는 건데 70큐비트가 있다고 하면, 그 70큐비트가 가지고 있는 정보를 보면 결국에는 다 complex number로 표현이 되는 건데 그 숫자가 10의 21승 정도가 됩니다. 10의 21승 정도의 complex한 number들이 이렇게 동시에 처리가 되고 있는 거거든요. 근데 똑같은 일을 디지털 컴퓨터로 따라해보겠다고 하면, 10의 21승 정도 되는 complex number를 real 파트랑 imaginary파트가 있을테니까 그걸 또 두 개로 쪼개서 대략적으로 비트를 여덟 개 정도 써서 이 숫자들을 근사해서 하겠다, 이렇게 하면 70큐비트가 표현할 수 있는 10의 21승의 complex number를 그 메모리에다가 저장을 하는 데만 해도 엄청나게 많은 메모리가 필요하게 됩니다. 대략적으로 10의 9승TB, 그니까 10억이죠. 10억TB 정도의 메모리가 필요합니다. 근데 그거는 딱 특정한 순간에 저장해 놓을 때 필요한 거고 이걸 계속 업데이트를 다이나믹하게 해 줘야 되니까, 양자컴퓨터가 하고 있는 일을 디지털 컴퓨터가 그대로 똑같이 따라하는 거는 상당히 어렵습니다. 거의 불가능에 가깝죠, 현재로서는. 여기서 큐비트의 개수를 하나하나 추가할 때마다 메모리 비용이 계속 익스포넨셜하게 더 커지는 겁니다. 그런 상황인데요.

[Quantum Computing: Basic Idea] (p.6)

사실은 여기서 이렇게 수많은 연산을 동시에 했는데 우리가 측정이라는 행위를 하는 순간에, 그러니까 앞단에서는 어떻게 보면 파동과 같은 성질을 써서 이렇게 병렬 처리를 동시에 한 건데. 측정을 하는 순간 그 입자의 성질이 나타나면서 수많은 경우의 수 중에 하나로 붕괴가 됩니다. 어떤 특정한 확률로, 이 예시에서는 결국엔 또 0101이라는 애가 하나만 딱 튀어나옵니다. 그러니까 양자병렬성이 있는데, 물리적인 그런 성질이 있는데, 이게 바로 계산 이득이 되는 건 아닙니다. 그러니까 양자컴퓨터가 하고 있는 거를 똑같이 따라하는 것은 어려운 일은 맞는데, 굳이 그렇게 할 필요가 없는 거예요. 그렇게 해봤자 결국 끝에 가서는 어려운 방법으로 하지 않은 것과 차이가 없는 거죠. 그냥 하나씩 넣어서 계산을 한 거랑 차이가 없게 됩니다. 최종 상태는 모든 정보를 가지고 있지만, 측정하는 순간에 붕괴가 되어 버리는 그런 문제가 있는 것이죠.

[Quantum Computing: Basic Idea] (p.7)

Superposition, 중첩이라고 하는 어떤 병렬성뿐만 아니라 간섭 효과라는 것이 있거든요. 간섭 효과라는 것도 잘 활용을 해야 됩니다. 간섭 효과를 잘 쓴다는 것은 결국 여러 가지 경우의 수들을 만들어 놓고 그중에서 우리가 마치 두 개의 파동이 만나서 더 큰 파도가 되거나, 파도가 서로 상쇄가 되는 그런 식으로도 연상을 해 보실 수가 있는데요. 원하지 않는 답들은 서로 상쇄가 돼서 없어지고 우리가 찾고자 하는 답만 튀어나오게 될 확률이 커지고. 그런 식으로 간섭 효과를 사용해서 결국에 내가 찾고자 했던 그 정보, 내가 풀고자 했던 문제의 솔루션이라든지, 내가 풀고자 했던 최적화 문제의 최적의 솔루션. 이러한 내가 찾고자 했던 정보만 딱 뽑히도록 해야 됩니다. 상당히 좀 추상적이고 어려운 거 같죠. 여기서 핵심은 양자중첩, 양자병렬성이 다가 아니라는 거죠. 그러니까 그건 어떻게 보면 필수적으로 있어야 되는데 거기에다가 추가적으로 이 간섭 효과라는 거를 더 잘 써야 된다는 거예요. 양자 알고리즘을 한다고 하면 어떤 특정한 문제를 풀기 위해서 알고리즘을, instruction을 쭉 짜야 되는 거잖아요. 1번 무엇을 하고 2번 무엇을 하고 3번 무엇을 하고. 그래서 결국에는 원하는 문제를 푼다. 이 알고리즘을 디자인한다는 게 생각보다 어렵습니다. 그렇게 직관적이지가 않습니다. 왜냐면 중첩 만들어놓은 게 다가 아니라 추가적으로 간섭 효과라는 거를 써야 되는 건데, 그래서 이게 거의 아트에 가깝다고, 실제로 누군가는 이거를 아트라고도 표현을 하는데요. 거의 아트에 가깝습니다. 예술에 가깝도록 우리가 간섭 효과를 어떻게 잘 써야 실제로 풀고자 하는 타겟 문제를 잘 풀 수 있을까? 이거를 아이디어를 잘 만들어서 새로운 알고리즘을 만들어야 되는 겁니다. 그래서 이 양자 알고리즘을 만든다는 게 사실 상당히 어렵고요. 실제로 알려진 알고리즘이 그렇게 많지가 않습니다. 그래서 양자컴퓨터에 대한 아이디어가 처음 시작했던 80년대 중반, 90년대 초반 그 이후로 90년대 초반을 기준으로 하면 벌써 30년이 넘었는데 알고리즘이 그렇게 많지 않습니다. 물론 알려져 있는 아주 매력적이고 파급 효과가 큰 알고리즘들이 있지만 그게 그렇게 많지는 않은 상황입니다.

[Early Expectations with Provable Quantum Speedups v.s. Recent Approaches] (p.8)

제가 방금도 벌써 이게 30년이 넘었다고 했는데. 그동안 어쨌든 이런 중첩, 간섭, 얽힘 이런 양자역학적인 효과들을 아주 예술적으로 잘 조합을 해 가지고 만들어 낸 알고리즘들, 그중에서도 실제로 이론적으로 이거는 진짜 확실하게 스피드업이 있다, 이런 방법으로 문제를 풀면 확실하게 속도 개선이 있다라고 알려져 있는 유형들이 몇 가지가 있습니다. 그런 것들 제가 간단하게 소개를 드리고, 그리고 또 최근에는 어떤 식으로 연구가 진행되고 있는지를 간단하게 말씀드리겠습니다.

[Key Subroutines for Quantum Advantage] (p.9)

이게 딱 와닿지 않을 만한 그림이에요. 제가 표를 이렇게 만들었는데 이름들을 다 나열했습니다. 그니까 교과서적인 알고리즘들을 제가 이렇게 쭉 나열을 한 거예요. 가장 아랫단에 보시는 것이 대표적인 응용 사례입니다. 제가 영어로 써 놓긴 했지만 대표적인 응용 사례를 가장 아랫단, 트리 구조에서 가장 아랫단에 보면 SVM, Regression 이러한 데이터 분석할 때 쓰는 알고리즘도 있고, 편미분 방정식 푸는 PDE solver 이런 것도 있고, PCA 차원 축소 이런 것도 있고, 가장 어떻게 보면 잘 알려진 RSA코드 또는 ECC코드 이런 암호체계, RSA나 ECC기반의 암호를 깨는 그런 것도 있고, 양자역학적인 시스템들을 모사하는, 그래서 이거를 화학이나 물리나 이런 자연계열 문제에 적용하는 것도 있고, 조합최적화, 또 Monte Carlo 샘플링 그런 걸 통해서 머신러닝이나 파이낸스 쪽에 어플라이할 수 있고. 이것만 해도 사실 어떻게 보면 충분히 많다라는 생각이 들 수도 있습니다. 왜냐하면 특정 어플리케이션들은 파급 효과가 워낙 크니까요. 조합최적화도 그렇고 Monte Carlo 샘플링도 그렇고 이런 쪽에서 우리가 스피드업이 있으면 그걸 응용할 수 있는 것들은 상당히 많으니까. 이미 충분히 양자컴퓨터가 풀 수 있는, 잘 푸는 유형이 몇 개 없다고는 하지만 이미 충분히 어플리케이션이 상당히 많아 보입니다. 근데 그 위로 가면 이 어플리케이션들을 가능하게 해 주는 교과서적인 알고리즘들의 이름입니다.

[Key Subroutines for Quantum Advantage] (p.10)

결국에 저 가장 왼쪽에 보시는 Quantum Fourier Transform이나 Quantum Phase Estimation 이런 거는 그냥 선형대수문제를 잘 푸는 거예요. 푸리에 변환을 잘하는 선형대수 문제를 푸는 유형이 있고, 또는 제가 Grover라고 써놓은 거는 검색을 잘하는 유형이라고 생각하시면 되고, 가장 오른쪽에 있는 건 물리문제를 잘 푸는 유형이에요. 그것들을 잘 활용을 하면 나무의 밑단에 저런 어플리케이션들로 다 이어진다, 이런 얘기입니다.

[Key Subroutines for Quantum Advantage] (p.11)

근데 이 선형대수 푸는 문제들하고 Grover라고 하는 탐색문제들이 n개의 큐비트를 가지고서 이런 걸 한다라고 하면, 이거를 실제로 양자컴퓨터에서 연산을 할 때 연산을 해야 되는 연산량이라고 할까요? 이 연산량이 입력되는 큐비트 개수에 다항식, polynomial하게 증가를 합니다. 근데 컴퓨터과학 이론에서 다항식으로 비용이 증가하는 거는 효율적이라고 얘기를 해요. 그래서 이론적으로 이거는 효율적으로 양자컴퓨터가 풀 수 있는 거는 맞습니다. 근데 실제 구현은 상당히 어렵습니다. 왜냐면 양자컴퓨터가 계속 양자 상태를 잘 유지하면서 연산을 계속해나가야 하는 건데, 다항적으로 증가하는 연산을 수행하다 보면 이미 중간에 양자역학적인 성질들을 다 잃어버리게 되는 겁니다. 그니까 오류나 우리가 원치 않는 그런 효과들로 인해서, 또는 우리가 양자 시스템을 정말 우리가 원하는 수준으로 아주 높은 정확도로 제어를 하는, 그리고 또 오랫동안 유지하는 엔지니어링적인 기술들이 아직은 좀 부족한 상황이기 때문에. 엔지니어링 측면에서 이런 것들은 구현을 하기가 좀 어렵습니다. 그러다 보니까 나무에서 밑에 있는 것들은 다 안 되는 거예요, 사실은. 밑으로 내려오면서 그것보다 좀 더 어려운, 예를 들어 저런 선형방정식을 풀 때는 다른 기술적인 문제들도 발생을 하고. 그러니까 엔지니어링적인, 기술적인 문제들이 발생을 해서 지금 저 밑으로 내려오지 못하는 그런 상황입니다.

[Key Subroutines for Quantum Advantage] (p.12)

제가 빨간색으로 해 놓은 것도 여러 가지 문제점들이 있습니다. 결국에는 문제점이 있다는 거를 말씀을 드리려는 거고요. 그러다 보니까 이론적으로는 해 볼 수 있는 것들이 많다는 얘기를 할 수 있지만, 실상 지금 이런 것들을 해보고 여기서 정말 급격한 속도 개선을 맛볼 수 있는 그런 케이스는 아직은 없는 그런 상태입니다. 괴리감이 있는 겁니다. 이론적으로는 아주 이상적인 상황들이 있는데, 실제 기술은 아직 거기에 다다르지 못하고, 또 언제 우리가 기술력을 보유할 수 있을지 그런 것들이 의문으로 남아 있는 상황입니다.

[Quantum Hardware Roadmap] (p.13)

그러면 우리가 무엇을 할 수가 있을까? 어떤 쪽에 또 응용을 해 볼 수가 있을까? 라는 거를 더 생각을 해 볼 수가 있을 텐데요. 결국에는 앞서 엔지니어링적인 구현을 하는데 있어서 발생하는 어려움들은, 그러니까 퀀텀 알고리즘 퀀텀 소프트웨어의 응용은 결국에는 양자 하드웨어가 어떻게 발전을 해 나가느냐, 그 하드웨어의 발전 페이스를 따라갈 수밖에 없습니다. 물론 지금은 상상을 하는 거지만 우리가 지금 상상하고 있는 양자컴퓨터가, 이런저런 스펙의 양자컴퓨터가 있으면 이런 일을 할 수 있겠지, 이론적인 얘기는 할 수가 있겠습니다. 그래서 예를 들면, 제가 생각했을 때 양자컴퓨터가 경제뿐만 아니라 사회 전반에 가장 큰 파급 효과를 가져올 수 있는 어플리케이션이 어떻게 보면 해킹인데요, 제가 잠깐 언급했던. 이게 경제 사회 전반적으로 워낙 파급 효과가 클 텐데. 제가 여기서 대표적으로 RSA 코드라는 암호 체계만 했지만, 양자컴퓨터가 깰 수 있는 암호 체계가 RSA랑 ECC, Elliptic Curve Cryptography, 이 두 가지가 대표적으로 양자가 깰 수 있는 건데. ECC의 경우도 유사합니다. 그래서 RSA 코드는 지금 1024비트 암호에서 2048비트 암호로 다 넘어가고 있는 추세로 알고 있는데. 1024비트 RSA 코드를 예를 들어서 이런 1024비트의 RSA 소인수분해 문제를 품으로써 이 코드를 무력화하는 그런 양자컴퓨터가 있으려면 대략적으로 수백만 개 정도의 큐비트를 우리가 사용을 해야 되는데, 그 각각의 큐비트를 우리가 오류율이 10의 -4승 이하, 그러니까 우리가 어떤 연산을 만 번 또는 10만 번을 했을 때 10만 번 중에 한 번 정도만 오류가 발생할 그 정도의 정확도로 제어를 하면 저 문제를 풀 수가 있게 되고 이게 상당히 위협이 되겠죠. 여기서 제가 드리는 숫자는 절대적인 숫자라기보다는 대략적으로 이 정도 수준이라고만 생각을 하셔도 됩니다. ECC 코드는 사실 조금 더 라이트한 코드예요. 그렇지만 실제로 푸는데 필요한 양자컴퓨팅 비용은 비슷한 수준이다, 대략적으로 생각을 하시면 됩니다. 그런데 현 시점에서의 우리의 기술은 물론 양자컴퓨터를 개발하는 회사들마다 조금씩은 다른 얘기를 할 수도 있겠지만, 그래도 적어도 대중적으로 우리가 체감하기에는 수십 개 정도의 큐비트가 1% 이상의 오류율, 그니까 100번 하면 한 번, 수십 번에 한 번 정도는 오류가 발생을 하는 그런 수준의 양자컴퓨터입니다, 현재에 존재하는 양자컴퓨터는. 지금 갈 길이 먼 것처럼 보이죠. 여기서 우리가 한 가지 좀 짚고 넘어가야 할 부분은 지금 수준에서 어쨌든 양자컴퓨터의 엔지니어링 기술은 저런 암호 체계를 깨는 수준의, 수백만 개의 큐비트, 만 분의 일 정도의 오류율 그 수준으로 계속해서 기술을 푸시해 나갈 거예요. 계속해서 푸시해 나갈 텐데. 예를 들면 제가 저기 When? 해놓은 저 정도 지점까지 왔다라고 하는 거는 사실 공학적으로 큰 breakthrough가 있었다는 얘기거든요. 사실 지금 Today에서 제가 When? 해 놓은 데까지 갔다는 거 자체가 breakthrough가 있었다는 건데, 그러면 만 개, 10만 개 큐비트에서 이미 한번 기술적인 breakthrough가 있었으니까 100만 개 수준으로는 그래도 쭉 밀고 나갈 수 있을 거라고 예상을 해요. 근데 제가 종종하는 얘긴데 아마 누군가가 저 RSA 또는 ECC 코드를 해킹을 할 수 있는 양자컴퓨터를 개발했다, 또는 여러분들이 그런 양자컴퓨터를 지하실에서 개발을 했어요. 그러면 신나서 그걸 사람들한테 나 이제 해킹할 수 있어 이렇게 얘기를 하고 다니실까요? 아마 아닐 겁니다. 만약에 여러분들 제가 드릴 수 있는 아주 중요한 조언은 양자컴퓨터를 개발하시면 절대 비밀로 하셔야 됩니다. 왜냐면 이것의 가장 큰 응용이 해킹이기 때문에 조용히 뒤에서 해킹을 해야죠, 아무도 모르게. 그런데 제가 When?이라고 표시해 놓은 시점 정도가 되면 해킹할 수 있는 수준의 기술로 끌어올리는 건 그렇게 어렵지 않을 것이라고 보이기 때문에, 저 정도 바운더리가 되면 아마 더 이상 기술 공유가 안 될 것이라고 생각을 할 수가 있습니다. 특히 국가간의 정보 교류는 없을 것이라고 생각이 되고요. 아마 더 이상 안 되는 것처럼 숨기지 않을까. 양자컴퓨터는 이제 더 이상 이게 끝이야라는 식으로 숨기는 시대가 분명히 올 거라고 생각이 됩니다. 그러면 좀 흥미 있는 또 다른, 물론 제가 방금 말씀드린 그 영역도 상당히 흥미가 있고요. 다른 영역은 그러면 지금 현 시점이랑 제가 When?이라고 표현해 놓은 그 시점 사이에 어떤 일이 있을 것인가? 인데요. 이 사이에는 사실 뭘 할 수 있을지가 아주 명확하진 않습니다. 그래서 제가 회색으로 표시를 해놨는데, 회색 영역입니다. 이 분야에서는 저 영역을 NISQ라는 표현도 써요. Noisy Intermediate-Scale Quantum이라는 표현을 쓰기도 하는데, 100에서 10,000개 정도의 큐비트인데 오류율이 0.1% 아래로 떨어지는 그 정도 기술력. 확실한 거는 양자컴퓨터가 하고 있는 일을 기존의 디지털 컴퓨터가 그대로 똑같이 따라하는 거는 거의 불가능에 가깝습니다. 그런 거를 2019년도에 구글이 quantum supremacy라고 하는 그런 타이틀을 가지고서 보여줬던 것들이 그런 일이거든요, 양자컴퓨터가 하고 있는 거를 고전컴퓨터가 똑같이 따라하는 게 아주 어렵다. 근데 이게 과연 우리 실생활에 유용한 거냐? 양자컴퓨터가 전혀 우리 실생활에 상관없는 그런 수학 문제를 풀고 있을 수도 있잖아요. 그러니까 고전컴퓨터가 양자컴퓨터 하는 일 그대로 따라하는 건 어려운데 굳이 고전컴퓨터가 양자컴퓨터 하는 걸 똑같이 따라할 필요가 있겠느냐? 양자컴퓨터가 우리한테 중요한 문제를 효과적으로 풀고 있는게 맞냐? 이런 질문을 던져 볼 수가 있습니다. 그래서 저 그레이 영역이 양자컴퓨터가 고전컴퓨터는 할 수 없는 무언가를 하고는 있는데 이게 실제로 우리 실생활에 어떻게 응용이 될 수가 있을지, 그리고 정말 이런 문제를 푸는 데 있어서 양자컴퓨터를 쓰는 게 확실한 이점이 있는지, 이런 것들이 회색 지대로 남아 있는 그런 영역이라고 보시면 될 것 같습니다. 그런데 적어도 저 영역은 3년 정도 후면 진입을 하지 않을까라고 생각이 됩니다. 사실 제가 연초에도 다른 곳에서 동일한 슬라이드로 이렇게 설명을 드린 적이 있는데, 다른 장소에서, 그때는 저기에 제가 5년이라고 썼거든요. 근데 6개월 만에 생각이 바뀌었습니다. 제가 3년으로 줄였습니다. 그래서 3년 정도 후면 저 회색 지대에 진입을 할 것이고, 이미 저 회색 지대로 넘어가고 있고, 이때 그러면 우리가 양자컴퓨터로 과연 무엇을 할 수 있는가?가 중요합니다. 결국에는 저 회색 지대 때 우리가 해 볼 수 있는 것들을 묶어서 한 단어로 표현을 한다면 최적화가 되겠습니다.

[Everything is Optimization] (p.14)

사실 최적화라고 하는 게 거의 모든 문제가 다 최적화 문제로 귀결이 되기도 합니다. 아주 위대한 수학자 중에 한 명이었던 오일러도 모든 문제는 최적화다. 이렇게 표현을 할 정도로 수많은 문제들이 거의 모든 문제가 다 최적화 문제로 귀결이 되거나 매핑이 된다고 볼 수가 있습니다. 머신러닝이나 AI도 결국에는 최적화 문제를 품으로써 모델을 학습을 하는 거고요. 이상 탐지한다든지, 양자계를 시뮬레이션 하는 거, 바이오, 신약 개발, 포트폴리오 최적화 다양합니다. 최적화 문제가 안 걸리는 게 아마 없을 겁니다. 최적화 문제에 양자컴퓨터를 활용을 해 볼 수가 있는데 크게 두 가지로 나눠서 생각을 해 볼 수가 있습니다. 우리가 최적화 문제를 푸는데 전역 최적화를 하겠다. 전역, 그니까 Global optimization하겠다, 그러면 최적화 문제 중에서는 특히 조합최적화 문제들을 보면 Global optimization을 하는 것이 상당히 어렵다고 알려져있는 유형의 문제들이 많이 있는데, 양자컴퓨팅 쪽에서도 사실 고전 알고리즘들이 풀기 어려운 최적화 문제들은 양자도 똑같이 풀기 어려울 것이라는 쪽으로 생각이 기울어져 있어요. 다만 만약에 우리가 좋은 초기값을 잘 잡으면 양자도 이득이 있을 순 있는데, 초기값이 잘 설정되지 않은 아주 랜덤한 포인트부터 시작을 해서 최적화를 해야 된다고 한다면, 고전적인 방법들 대비 과연 장점이 있을까? 좀 의심하는 쪽으로 추세가 되고 있습니다. 다른 한편으로는 Local optimization이 있습니다. 근사적으로 문제를 푸는 것이죠. 대신에 우리가 얻어낸 로컬한 솔루션이 최대한 좋기를 원하는 겁니다. 사실 웬만한 최적화 문제들, 어려운 최적화 문제들은 그냥 다 근사적으로 Local optimization, 휴리스틱하게 푼다고도 표현하는데 그런 식으로 풀고 해결하는 경우가 많고요. 그러면 양자컴퓨터를 Local optimization관점에서 봤을 때에 동일한 계산 비용을 사용해서 더 나은 로컬 솔루션을 찾을 수 있을까? 또는 동일하게 좋은 로컬 솔루션을 찾는 데 있어서 더 적은 비용으로 문제가 해결이 가능할까? 이런 관점에서도 생각을 해 볼 수가 있습니다. Local optimization 이거는 서로의 솔루션을 비교해 볼 수가 있기 때문에 양자가 더 좋은지, 또는 기존의 방법들이 더 좋은지 이런 것들을 쉽게 서로 상대적으로 비교를 해 볼 수가 있습니다.

[Go Hybrid] (p.15)

그리고 양자컴퓨터가 새로운 기회를 제시하긴 하지만 동시에 여러 가지 도전 과제들이 있는데, 결국에는 양자-고전 하이브리드 형태의 컴퓨팅을 생각을 할 수밖에 없습니다. 그래서 양자컴퓨팅 기술이 기존의 컴퓨터들을 다 갈아엎고 모든 걸 다 대체하는 그런 기술이 아니라, 기존의 컴퓨터들은 원래 잘하던 일들을 계속 하는데 양자컴퓨터는 또 양자컴퓨터가 특별히 잘하는 일들을 수행하면서, 하이브리드 형태로 서로가 얽혀서 서로의 장점은 결합하고 단점은 보완하면서 이런 것들을 계산과학이나 데이터과학이나 인공지능이나 이런 데에서 잘 활용을 해 보자라고 하는 것이 양자-고전 하이브리드 컴퓨팅이라고 볼 수가 있겠습니다. 그리고 이 양자-고전 하이브리드 컴퓨팅이 저희 연구실에서도 메인 주제라고 생각을 하시면 될 거 같고요.
궁극적으로 여기서 양자를 뺀, 순전히 고전적인 방법으로 하는 것으로는 도달할 수 없는 그런 영역에 이런 하이브리드 형태로 도약을 해 보자, 이것이 하이브리드 컴퓨팅의 취지입니다. 그래서 여기서 양자와 머신러닝을 결합을 하게 되는데요. 결합을 하는 방향성이 결국에는 크게 두 가지입니다. 하나는 머신러닝을 위한 양자컴퓨팅, QC4ML이 되겠고요. 다른 방향은 양자컴퓨팅을 위한 머신러닝입니다. 그래서 제가 두 방향성에 대해서 간단하게 소개를 드리려고 합니다. 결국에 머신러닝을 위한 양자컴퓨팅은 말 그대로 양자컴퓨팅 기술을 써서 기존에 우리가 해오던 예측 모델, 생성 모델 이런 것들을 좀 더 개선할 수 있을까? 이런 것들을 연구해 보는 것이고요. 우리가 흔히 얘기하는 빅데이터는 고전 데이터인데요. 디지털화가 되어 있는 데이터, 고전 데이터를 다룰 때 양자컴퓨터가 어떤 이점을 줄 수 있는지. 그리고 우리가 익숙하지 않지만 이미 처음부터 양자역학적인 데이터들이 있습니다. 특히 센싱을 하거나 이럴 때는 그 데이터가 양자인 경우들이 대부분인데, 이 양자 데이터를 다룰 때 양자컴퓨터를 어떻게 활용할 것인지. 다른 방향에서 ML4QC은 양자컴퓨터가 여러 가지 기술적인 난제들, 도전 과제들이 있는데, 이런 것들을 머신러닝이나 AI기술이 지금 많이 발전해왔는데 그런 머신러닝 AI기술들을 활용해서 양자컴퓨팅 기술을 좀 보조해준다든지. 양자컴퓨터의 하드웨어를 계속해서 발전시켜 나가는 데 도움을 준다든지. 또는 양자 알고리즘의 효율성이나 실용성 같은 거를 머신러닝을 통해서 더 개선시켜 줄 수 있다든지. 이런 것들을 탐구하는 영역이라고 생각하시면, 그런 분야라고 생각하시면 될 거 같습니다.

[Quantum Machine Learning for Classical Data] (p.17)

머신러닝을 위한 퀀텀컴퓨팅인데요. 먼저 Classical Data라고 하는 거는 디지털 데이터라고 생각을 하시면 돼요. 디지털화가 되어 있어서 존재하고 있는 데이터로 생각을 하시면 되는데. 이런 데이터를 그럼 양자컴퓨터가 어떻게 다룰 수 있느냐? 가장 기본적으로는, 제가 d라고 부르겠습니다, d차원의 고전적인 데이터가 있는데 이거를 양자컴퓨터로 다루겠다고 하면 사실이 데이터를 먼저 양자컴퓨터로 로딩을 해야겠죠. 데이터를 한번 변환을 시켜줘야 돼요. 디지털 데이터를 양자로. 그러면 d차원의 데이터, d차원의 벡터라고도 생각을 하셔도 되는데 그거를 n개의 큐비트를 가지고 있는 양자컴퓨터에 로딩을 해 주는 겁니다. 근데 n개의 큐비트로 이루어진 데이터가 표현해 줄 수 있는 특징 공간은 큐비트 개수에 지수적으로 증가를 하거든요. 정확히는 4의 n승으로 증가를 합니다. 그래서 d차원 데이터를 4의 n승의 데이터로 고차원 매핑을 한다라고도 생각을 할 수 있습니다. 그래서 너무 단순한 그림인데 2차원 데이터를 양자 상태로 얹으면 저 3차원 데이터로 넘어가는 그런 상황이라고 상상을 해 보실 수가 있습니다. 그래서 2차원 공간에서는 파란색과 빨간색 데이터를 딱 구분해 주는 바운더리를 찾기가 어려운데 이거를 고차원으로 매핑을 해 놓고 보니까 파란색이랑 빨간색을 딱 구분해 주는 그런 모델을 찾기가 쉬워진다. 이런 거를 제가 예시로 보여드린 건데요. 결국에 양자 머신러닝이라고 하는 거는 데이터를 고차원으로 보내놓은 다음에 고차원에서 선형 모델을 찾는 꼴이 됩니다. 제가 그거를 오른쪽 상단에다가 수식으로도 표현을 했는데요. 모델이 그냥 선형적인 모델이면 머신러닝으로서 그렇게 파워풀하지 않은 거 아니냐? 머신러닝 하겠다고 하면 모델에 비선형성이 있어야 되는데. 근데 그 비선형성은 데이터를 매핑하는 과정에서 발생한다고 보시면 될 거 같습니다. 그래서 이 모델이 데이터분석이나 머신러닝 하시는 분들 아주 익숙하실 만한 서포트 벡터 머신과 상당히 유사하다고 보시면 됩니다. 그래서 양자 머신러닝은 데이터를 고차원으로 매핑을 해놓고 선형 모델을 찾는 거니까 결국에는 SVM을 통해서 이 모델을 학습하면 됩니다. 이 SVM을 학습할 때 이때도 경우가 두 가지로 갈리는데요. 하나는 똑같은 SVM을 익스포넨셜하게 빠르게 학습을 하는 방법이 있는데, 이거는 제가 앞서 설명드린 거랑 비슷하게 실제로 근시일 내에 실현이 불가한, 그런 하드웨어적으로 이런 걸 해낼 수 있는 하드웨어는 현재 없는 그런 기술입니다. 두 번째 케이스는 실제로 현재 어느 정도 구현이 가능한 건데, 데이터를 매핑하는 거는 양자컴퓨터를 써서 고차원으로 매핑은 해 놓되, 그다음에 SVM의 파라미터를 찾는 거는 고전적으로 합니다. 최적화 과정에서 어떠한 스피드업이 있는 건 아니에요. 최적화하는 과정은 그냥 고전적인 알고리즘 쓰는 거니까. 최적화 관점에서 스피드업이 있는 건 아닌데, 대신에 좀 더 복잡한 특징 공간을 쓸 수가 있기 때문에 동일한 시간을 쓰는데 더 복잡한 패턴을 읽어낼 수 있지 않을까? 즉, 예측 성능은 더 잘 나올 수 있지 않을까? 이런 어프로치를 해 볼 수가 있습니다. 그리고 이거는 근시일 내에 구현이 가능한 그런 하이브리드 방법이고요. 그런데 SVM을 잘 아시는 분들 아시겠지만 사실 빅데이터에는 그렇게 좋은 방법은 아니긴 합니다. 그래서 빅데이터에는 잘 맞는 방법은 아닌데요. 대신에 우리가 잘 살펴보면 충분히 데이터가 작은데 문제 자체가 복잡한 경우들이 많거든요. 그런 경우에는 잠재적으로 양자컴퓨터를 활용을 해 볼 수 있지 않을까? 이렇게 생각을 합니다.

[Quantum Machine Learning for Classical Data] (p.18)

이거는 저희 연구실에서 케이스 스터디를 좀 해 본 거예요. 저희가 사실 자체적으로 디지털 데이터를 양자 상태로 매핑하는 그 과정 자체를 또 최적화하는 그런 파이프라인이 있는데, 그런 걸 활용해 가지고 기존의 SVM, 근데 SVM도 어느정도 저희가 최적화를 최대한 했습니다. 가장 좋은 피처맵 같은 거 찾아왔고. 기존의 SVM이랑 퀀텀을 활용한 그런 하이브리드 형태의 SVM을 몇 가지 데이터셋으로 해 본 건데, 데이터셋을 일부러 저희가 좀 소규모 데이터로 했어요. 이미지 데이터 이런 거를 SVM으로 하는 거는 좀 말이 안 되는 거 같아서. 해봤는데 적어도 이런 케이스 스터디에서는 양자컴퓨터를 활용하는 방법이 예측 성능이 훨씬 더 좋게 나오더라라는 것을 저희가 봤습니다. 다시 한번 정리를 하면 이게 속도 개선이 있는 건 아니지만 똑같은 비용을 써서 더 좋은 예측을 만든 그런 사례라고 보시면 될 것 같습니다. 그리고 빅데이터에는 적합하지 않지만, 그래도 소규모의 복잡한 데이터에는 그래도 활용을 해 볼 수 있지 않을까 이렇게 상상이 됩니다.

[Anomaly Detection] (p.19)

비슷한 맥락으로 이런 이상 탐지, Anomaly Detection 같은 것도 해 볼 수가 있는데요, 비슷합니다. 디지털 데이터를 더 큰 특징 공간으로 매핑을 해 놓고 거기서 이상치를 잘 찾는 그런 결정 경계선을 찾는 이런 건데. 저희가 이거를 고전 알고리즘 중에 대표적으로 이상 탐지를 잘해주는 특징 공간을 딥러닝을 통해서 찾는 Deep SVDD라고 하는 그런 방법이 있어요. 제가 슬라이드 오른쪽에 DSVDD라고 쓴 게 그건데, 그 방법이랑 저희가 그거를 양자 버전으로 만든 퀀텀SVDD랑 이렇게 비교를 해 봤는데. 여러 가지 데이터셋을 해 봤는데 그래도 그중에서 좀 연관이 있을 만한 게 신용 카드 거래 데이터에서 어떤 이상한 거래가 있었는지 그런 거를 탐지하는 그런 데이터셋이 있더라고요. 그런 거에다가 해봤는데 일단 저희가 벤치마킹 했던 거에서는 퀀텀을 썼던 경우가 이상 탐지 예측 성능이 좀 더 높게 나오는 것을 보기도 했습니다.

[Unsupervised Learning for Solving PDEs] (p.20)

이거는 조금 다른 얘긴데 최근에 편미분 방정식을 푸는 데 있어서 머신러닝을 활용하는 그런 연구들이, 그니까 퀀텀이랑 별개로 머신러닝 기반의 편미분 방정식 풀이 방법들이 상당히 많이 나오고 있는데요. 아마 저보다도 훨씬 잘 아시겠지만 편미분 방정식 푸는 게 경제 금융 분야뿐만 아니라 유체역학이나 재료공학 이런 워낙 산업 전 분야에 걸쳐서 다양하게 쓰이기 때문에, 이거를 머신러닝을 통해서 풀고자 하는 그러한 연구들이 아주 활발하게 이루어지고 있습니다. 수리과학의 영역이죠, 계산과학 그런 전문가 분들하고 저희가 협업을 하면서 여기에 양자를 하이브리드 형태로 넣어 가지고 성능을 개선할 수 있지 않을까? 이런 연구도 현재 진행 중인데요. 편미분 방정식을 푸는 게 머신러닝으로 풀든 아주 전통적인 방법으로 풀든 결국에 고차원 문제를 푸는 게 상당히 어렵습니다. 여기서 문제의 차원을 제가 d라고 부른다면 결국에 그 차원의 지수적으로 복잡도가 증가하게 되거든요. 그러니까 고차원 문제를 푸는 게 상당히 어렵습니다. 저희가 아직 초기 단계라서 아주 좋은 결과가 있는 건 아니지만, 저희가 초기 단계를 진행하면서 봤을 때, 이런 d차원의 편미분 방정식 문제를 풀 때 필요한 양자 자원을 봤을 때 적어도 몇 개의 큐비트가 필요하냐? 만 봤을 때 그 차원의 선형적으로 증가를 합니다. 고전적인 방법은 그 차원의 지수적으로 비용이 증가하는데, 퀀텀은 큐비트 개수라고 하는 좀 단순한 걸 보긴 했지만 선형적으로 증가하기 때문에 가능성이 있지 않을까라고 생각을 하면서 이걸 좀 해보고 있고요.

[Unsupervised Learning for Solving PDEs] (p.21)

단순하게 케이스 스터디 해 본 것들, 단순하게 1차원의 헬름홀츠 방정식이라고 하는 단순한 미분 방정식 문제를 푸는 데 있어서 저희가 퀀텀을 넣어서 하이브리드 형태로 했더니 퀀텀을 사용하지 않았을 때보다 성능이 좀 더 잘 나오는. 저 초록색이 하이브리드 형태로 풀었을 때 얼마나 예측을 잘하는지 오류율을 본 거라서 밑에 있을 수록 좋은 거거든요. 그래서 빨간색은 퀀텀을 전혀 쓰지 않은 경우고. 그런 것도 저희가 봤고.

[Unsupervised Learning for Solving PDEs] (p.22)

이런 2D, 2차원 문제, 2차원 편미분 방정식 같은 거 풀 때. 아직은 고차원 영역으로 저희가 가본 건 아닙니다. 그러니까 이 가능성을 보고 지금 연구만 하고 있는 단계고. 1차원 2차원, 그러니까 기존의 방법으로도 풀기 쉬운 문제긴 하지만 이런 것들 시험 삼아서 해 보고 있는데 일단은 양자가 1차원이나 2차원 문제까지는 잘 맞추더라. 어느 정도 그런 고차원 PDE 문제 푸는 데 활용을 해 볼 만한 가능성이 있겠다라는 정도로 생각하시면 될 것 같습니다.

[Combinatorial Optimization Example in ML: Clustering] (p.23)

또 다른 케이스인데요. 이거는 클러스터링 문제에 한번 양자를 적용해 본 사례입니다. 그래서 클러스터링 문제는 아마 잘 아실 것 같아요. 그래서 데이터가 예를 들어서 저 왼쪽에 보시는 것처럼 데이터가 저렇게 뿌려져 있으면, 저기에서 클러스터링 알고리즘이 비슷한 데이터끼리 묶어줘야 되는 겁니다. 결과적으로 저 오른쪽에 보시는 세 개의 그룹으로 나누도록. 근데 저 문제가 결국에는 최적화 문제라고 볼 수가 있는데, 가장 최적의 그룹으로 배치를 하는 거. 데이터 포인트들을 최적의 그룹으로 배치를 하는 최적화 문제로 볼 수가 있는데. 최적화 문제가 수학적으로 뜯어 놓고 보면 사실 상당히 어려운 문제입니다. 그래서 저희가 알고 있는 대표적인 클러스터링 알고리즘들은 다 이걸 근사적으로 푸는 거라고 보시면 될 거 같아요. 이거를 양자컴퓨터로 어떻게 해 볼 수 있냐면 클러스터링의 목적이 있지 않습니까? 클러스터링의 목적은 결국에 동일한 그룹으로 묶인 그런 데이터들은 서로 최대한 거리가 가까이 있는 애들이 동일한 그룹으로 묶이고, 그리고 동일한 그룹으로 묶이지 않은 그런 데이터들은 서로 거리가 멀어야 된다. 이런 기본적인 조건이 있는 거죠. 이걸 기반으로 클러스터링의 목적 함수를 만들고요. 최적화 목적 함수를 만들고, 이 목적 함수를 양자 시스템의 에너지로 매핑을 시킵니다. 그러면 양자컴퓨터가 잘하는 것 중에 하나가 양자 시스템의 최소 에너지 값을 찾는 걸 잘하거든요. 그러니까 이 목적 함수의 실제 해, 솔루션, 최소값. 이게 결국에는 최소 에너지로 매핑이 되니까 이걸 양자컴퓨터로 풀겠다는 겁니다. 그래서 클러스터링의 목적 함수를 양자 시스템 에너지, 제가 H라고 써 놓은 그런 것으로 매핑을 해 놓고, 이거를 양자컴퓨터로 풀어서 최적화 문제를 풀고, 그래서 최적의 클러스터링 configuration을 찾는 이런 거를 저희가 했고. 이것도 저희가 다양한 방법들 중에 현재 D-Wave라고 하는 회사의 양자컴퓨터를 쓰면 아주 대단한 건 아니겠지만 대략적으로 200개의 데이터 포인트는 클러스터링을 할 수가 있더라고요. 그래서 대략적으로 200개의 데이터 포인트를 클러스터링 할 수 있는 그런 단순한 문제들 몇 개 해 봤는데, 저희가 k-means 알고리즘이랑 비교를 해 본 거긴 하지만, 기본적인 k-means랑 적어도 이미 비슷하게 나오거나 또는 조금 더 잘 나오는 거를 봤고요. 그리고 이게 실제로 클러스터링 문제라고 보기는 좀 어려울 수도 있겠지만 제가 다시 한번 신용 카드 거래 데이터에서 정상 데이터랑 이상 데이터 이런 것들, 우리는 이미 이상과 정상을 알고 있지만 그걸 모르는 상황에서 군집화를 했을 때 실제로 얘가 이상치는 이상치끼리 붙고 정상치는 정상치끼리 잘 묶는지, 이런 거를 한번 해봤는데. 저희가 아직 왜 이런 현상이 일어나는지 아주 완벽하게 이해는 못 했지만 이상치와 정상치의 비율이 아주 익스트림하게 차이가 많이 날 때는 k-means가 사실 잘 되긴 했습니다. 그니까 저기서 초록색이 양자로 한 거고 빨간색이 고전적인 방법을 한 건데. 이상치가 정상치의 20%에서 30% 영역으로 넘어오는 그 정도 영역에서는 퀀텀이 더 좋은 성능을 보인다는 것을 볼 수가 있었습니다. 그래서 이런 것도 데이터 군집하면서 패턴을 찾고 이런 쪽에도 양자컴퓨터를 활용을 해 볼 만한 가능성이 있다고 생각하시면 될 것 같습니다.

[Generative Modeling via Quantum Annealing] (p.24)

그리고 생성 모델이 좀 재미있는데요. 제가 방금 보여 드렸던 데이터 군집을 위해서 최적화 문제를 풀 때 양자어닐러라고 하는 그런 양자컴퓨터를 쓴 거예요. 양자 디바이스라고 할까요? 그런 걸 쓴 건데 이걸로 사실은 최적화 문제를 풀 수 있을 뿐만 아니라 특정한 확률 분포를 따르는 샘플을 만들어 낼 수 있습니다. 그러니까 어떤 분포를 따르는 샘플을 만들어내는 물리적인 장치라고 보셔도 되는데. 분포가 볼츠만 분포라고 하는 그 분포에 상당히 가깝습니다. 볼츠만 분포라고 하는 것은 또 생성 모델 중에 하나인 볼츠만 머신이라고 하는 걸 학습하는 데 쓰이거든요. 볼츠만 머신이라고 하는 거는 아주 초기 생성 모델인데 결국에는 네트워크입니다. 잘 아실 것 같은데 작년에 노벨 물리학상을 받으셨던 홉필드 교수님이나 또는 제프리 힌튼 교수님. 홉필드 교수님이 하셨던 홉필드 네트워크가 조금 더 발전이 된 게 볼츠만 머신이라고 보시면 될 거 같아요. 그래서 볼츠만 머신이 생성 모델이 되게 초기 모델인데 이게 네트워크가 서로 다 연결이 되어 있을 때는 효율적으로 학습할 수 있는 방법이 없어요. 그래서 이 네트워크에 좀 제약 조건을 걸어서 히든 레이어, 비지블 레이어 이런 식으로 나눠 가지고 네트워크 구조를 단순하게 해 놓고, 그다음에 단순화가 돼있는 네트워크, 흔히 restricted 볼츠만 머신, RBM이라고 하는데. 그 RBM을 효율적으로 학습을 할 수 있는 알고리즘을 바로 제프리 힌튼 교수님이 만들어 내신 거고 스스로도 그거를 본인의 업적 중에 아주 중요한 일 중에 하나라고 말씀을 하셨고. 그리고 restricted 볼츠만 머신을 효율적으로 학습을 할 수 있었기 때문에 그 후에 결국에는 이게 현대 AI까지 넘어오게 됐다고 볼 수가 있습니다. 어떻게 보면 현대 AI의 출발점이라고도 볼 수가 있는데. 재밌는 것은 양자어닐러라고 하는 디바이스는 볼츠만 머신이 필요로 하는 그 분포를 따르고 있는 장치인 거예요. 물리적인 장치. 그래서 이거는 어떤 알고리즘적인 컴플렉시티가 있다기보다는 하드웨어 자체가 이 일을 하고 있는 거여서 이거를 볼츠만 머신 학습하는 데 활용할 수가 있습니다. 그래서 저희가 이걸 실제로 해 봤고요. 생성 모델 자체로 봤을 때는 그렇게 복잡한 모델은 아니어가지고 일단은 단순한 이미지 데이터를 생성하는 데 저희가 써봤는데, 이거를 고전 알고리즘이랑 비교를 했을 때 학습이 훨씬 빠르게 됩니다. 제가 슬라이드에 네 배라고 써놨는데, 저거는 양자컴퓨터는 클라우드로 접속을 한 거고 고전 컴퓨터는 진짜 그냥 로컬 컴퓨터로 쓴 거라서. 사실 클라우드 접속하는 데 걸린 시간을 다 포함한 거거든요. 순전히 런타임만 보면 거의 64배 정도가 빠릅니다, 양자가. 그 정도로 빠르게 최적화를 푸는데 심지어 Validation error가 더 밑으로 떨어집니다. 그러니까 더 빠른데 더 정확하게 이 문제를 풀게 된다는 거죠. 이런 케이스를 저희가 봤고. 근데 그것보다도 전망을 생각했을 때 놀라운 게, 아까 제가 잠깐 설명을 드렸지만 모든 신경망이 다 연결되어 있는 Fully-connected 볼츠만 머신은 사실 학습이 현실적으로 불가능하다고 생각이 돼서 그건 버려졌어요. 버려지고 restricted 볼츠만 머신이라고 모델을 단순화를 시킨 후에 쭉 온 거거든요. 근데 저희가 제시하는 방법대로 하면 학습을 하는 데 있어서 어떤 알고리즘적인 컴플렉시티가 있는 게 아니라 주어진 양자 하드웨어가 우리가 원하는 네트워크의 connectivity를 그대로 담고 있으면 됩니다. 그러니까 이게 알고리즘의 컴플렉시티가 하드웨어 구조적인 컴플렉시티로 넘어온 겁니다. 알고리즘의 복잡도가, 알고리즘의 어려움이 하드웨어를 만드는데 필요한 그런 엔지니어링의 어려움으로 넘어옵니다. 그래서 하드웨어만 충분히 좋으면 예전에 1980년대 이미 그 당시 고려 대상에서 제외가 되었던 그런 Fully-connected 볼츠만 머신이 다시 부활할 수도 있고, 저는 이게 AI 관점에서 새로운 길을 열어줄 수 있지 않을까라는 기대를 해 볼 수 있다고 생각을 합니다.

[Inverse Molecular Design via QC Hybrid Generative Learning] (p.25)

또 다른 케이스인데요. 이거는 Inverse Molecular Design, 역방향 분자 설계라는 분야인데. 그동안에는 대부분 어떤 분자 구조, 어떤 화학 구조를 딱 주면 이 분자가 어떠한 성질을 가지느냐? 분자 구조를 보고 성질을 예측하는 그런 일들을 주로 했다면, 이거는 반대로 우리가 특정한 성질을 보이는 분자를 역으로 설계를 하고 싶은 겁니다. 이게 신약 개발, 재료공학, 에너지, 배터리 이런 쪽에 무궁무진하게 쓰일 수 있을 것입니다. 아마 올해 이 논문이 나왔을 텐데, 올해 Inverse Molecular Design을 통해서 항암 치료제를 개발하는데 양자-고전 하이브리드 생성 모델을 쓴 것이 화제가 되었습니다. 이건 저희가 한 건 아니고요. 이게 화제가 되었었는데요. 여기서 결국에는 고전적인 생성 모델을 학습시킬 때 어떠한 초기값으로 우리가 실제로 만들어내고 싶은 그런 성질을 가지고 있는 분자들의 확률 분포를 잘 반영해 주는 양자 샘플러를 만드는 겁니다. 앞단에다가 양자 샘플러를 만들어서 우리가 원하는 성질을 보이는 그런 분자들의 확률 분포를 만들어 주고, 그다음에 그걸 고전적인 생성 모델에 인풋으로 집어넣어서 우리가 원하는 성질을 만족하는 분자 구조들을 쭉 뽑아내는 그런 하이브리드 형태의 모델을 만들고 어느 정도 항암 치료제를 개발하는데 효과를 봤다, 이런 논문이 나왔습니다. 이게 왜 잘 되느냐? 에 대해서 아주 이론적으로 콕 집어서 말하긴 좀 어렵지만, 직관적으로는 양자 컴퓨터가 고전적으로는 생성해 내기 어려운 확률 분포들을 잘 만들어 내기 때문이 아닐까, 어렴풋이 생각해 볼 수 있습니다. 하지만 이론적으로 콕 집어서 이러이러한 이유때문에 이게 항암 치료제에 좋은 효과가 있다, 이런 얘기를 하기에는 아직은 너무 초기 단계이고요. 하지만 역방향 분자 설계라는 것이 워낙 다양한 산업 분야에 있어서 파급 효과가 크기 때문에 충분히 양자 컴퓨터의 활용 가능성을 고려해 볼 수 있을 것 같습니다.

[Quantum Eigensolvers: Why it Matters?] (p.26)

제가 앞에도 잠깐 언급을 했었는데 퀀텀 컴퓨터로 풀 수 있는 대표적인 문제가 주어진 양자 시스템의 에너지 값들, 특히 가장 낮은 에너지 값을 찾는 거를 양자 컴퓨터가 잘합니다. 근데 이거를 고전 컴퓨터는 일반적으로 양자 시스템을 모사하기 어려울 것이라고 예전부터 사람들이 생각해 왔고, 특히 유명한 리처드 파인만 교수님께서도 자연적인 문제, 자연계를 모사하려면 결국에는 그 자연의 법칙을 따르는 양자 컴퓨터가 필요할 거다, 이런 말씀을 또 80년대에 하셨고. 어떻게 보면 양자 컴퓨터가 발전하는 시작이 되었다라고 볼 수가 있는데요. 이 문제가 그냥 어떻게 보면 수학적인 최적화 문제인데, 어떤 시스템의 최저 에너지를 찾는 거니까. 근데 이게 다양한 분야에 또 활용이 됩니다. 화학, 재료, 물질, 물리학 분야. 심지어 또 최적화 문제. 아까도 제가 최적화 문제를 이렇게 매핑을 할 수가 있다고 했는데 조합 최적화 문제. 다양하게 이 문제를 적용할 수가 있습니다. 그런데 여기에다가 양자 컴퓨터가 사실 아직은 여러 가지 이유로 구현하는 것도 어렵다 보니 머신 러닝이나 AI 기술을 좀 추가해서 성능을 극대화하는 그런 일들을 할 수가 있습니다. 크게 두 가지 방법이 있는데 하나는 Classical한 머신 러닝 모델을 학습하는데 거기에 필요한 학습 데이터만 양자 컴퓨터가 제공을 해 준다, 이런 시나리오고요. 두 번째도 여전히 모델 자체는 Classical한 모델인데 그 모델의 목적 함수를 계산하는 파트만 양자 문제니까 양자 컴퓨터가 계산을 하겠다, 이런 겁니다.

[Gate based Quantum Eigensolvers] (p.27)

여기는 좀 기술적인 내용이 많이 있는데. 이건 최소 에너지 값을 찾는, 지금까지 알려진 다양한 양자 알고리즘 유형인데. 왼쪽의 극단은 수렴성이 가장 보장이 잘되는 이론적으로 가장 좋은 알고리즘인데 현재로 구현하기 어려운 거. 그리고 가장 오른쪽은 현재 당장 쓸 수 있는데 수렴성이 전혀 보장되어있지 않은 거, 이렇게 생각하시면 됩니다. 가운데가 중간 지점인 건데 여기에다가 AI를 좀 넣어서 최적화 속도도 좀 더 향상시키고, 추론도 좀 더 잘하고 이런 걸 하겠다라는 거였고요.

[Generative Krylov Subspace Diagonalization] (p.28)

그래서 이것도 저희가 실제로 해봤는데. 학습 데이터는 특정한 양자 시스템에서부터 미리 계산된 데이터고 이건 양자 컴퓨터가 제공을 하는 거고요. 양자 컴퓨터가 만들어낸 학습 데이터를 가지고서 Classical한 머신 러닝 모델을 학습하는 겁니다. 여기서는 예를 들어서 저희는 Transformer 또는 Mamba 이런 모델들을 학습을 하는데 학습 데이터를 양자 컴퓨터가 준 거예요. 그런 모델들을 학습을 해 가지고 문제를 푼 그런 예시고요. 그래서 밑에 왼쪽에 보시면 저게 15큐비트짜리 시스템의 최저 에너지를 찾는 문제인데, 어떤 ideal한 값을 Transformer나 Mamba가 잘 따라갔다는 얘기고. 오른쪽에 있는 거는 20큐비트짜리 실제 양자 컴퓨터에서 이 실험을 했던 건데. 초록색으로 돼 있는 게 실제 양자 컴퓨터가 뽑아낸 결과값들이고요. 그다음에 빨간색, 파란색은 저희가 Transformer나 Mamba를 학습해 가지고 양자 컴퓨터가 하고 있는 거를 그대로 따라해 본 건데. 양자 컴퓨터가 만들어내는 분포들을 얘네들이 잘 만들어 내더라, 이런 겁니다. 그러니까 Classical한 모델이 충분히 파워풀한 겁니다. 그런데 Classical모델이 충분히 파워풀하다고 해서 양자가 필요없는 건 아닙니다. 왜냐면 학습시키려면 학습 데이터가 필요하잖아요. 근데 그 학습 데이터는 결국에는 양자 컴퓨터가 계산을 해서 줘야 되는 거기 때문에 아주 자연스러운 Classical-Quantum 하이브리드 학습 패러다임이라고 보시면 될 것 같습니다.

[Summary] (p.29)

요약을 하자면 양자-고전 하이브리드 컴퓨팅을 제가 최종적으로 소개를 드렸고요. 머신 러닝을 위한 양자 컴퓨팅이 있고요. 거기서 예측 모델을 만들 수 있다고 말씀을 드렸고. 그런데 빅데이터보다는 소규모 데이터, 특히 복잡한 소규모 데이터에 적합할 것이라고 결론을 내릴 수 있고. 또 머신 러닝 기반의 수치해석, 예를 들면 편미분 방정식 문제 풀고 하는 데 있어서 이런 하이브리드 모델을 좀 활용해 볼 만한 가능성이 있다. 그리고 제가 비지도 학습의 예시로 이상 탐지나 클러스터링 할 때도 양자 컴퓨터를 활용했던 그런 케이스들 보여 드렸고. 생성 모델, 역방향 분자 설계하는 거 여기에도 그런 하이브리드 형태를 활용할 수 있는 가능성이 있다는 걸 말씀을 드렸고요. 그리고 제가 가장 개인적으로 흥미롭게 생각하는 게 80년대에 고려 대상에서 제거가 되었던 볼츠만 머신이 다시 부활을 함으로써 AI의 새로운 길을 개척을 할 수 있는 가능성이 열렸다는 게 상당히 흥미롭습니다. 그리고 머신 러닝을 통해서 양자 컴퓨팅을 개선을 하는 그런 방향성도 있다고 말씀을 드렸고요. 최소 고유값 또는 최소 에너지값을 계산하는 양자 알고리즘에 추가적으로 Classical한 머신 러닝, 예를 들면 Transformer나 Mamba와 같은 최근에 많이 개발되고 있는 Large Language 모델 같은 거를 써서 계산화학 문제나 다체물리 문제, 이런 양자 시뮬레이션 문제 또는 조합 최적화 문제 이런 쪽으로 또 활용을 해 볼 수 있다는 말씀을 드렸습니다. 제가 사실 말씀을 안 드린 게 양자 컴퓨터를 만드는 데 있어서 양자 오류 보정이라는 기술이 되게 중요한데 이것도 Transformer, Mamba 같은 Large Language 모델을 통해서 더 개선을 할 수가 있고 그런 연구도 구글 딥마인드에서 하면서 알파 큐비트 이런 것도 최근에 발표를 했는데. 저희 연구실에서는 알파 큐비트보다 좀 더 저렴한데 성능은 비슷하게 나오는, 그런 모델들 만드는 일들도 하고 있습니다.

[Bridging the Gap: Challenges and Opportunities] (p.30)

다시 기회와 도전으로 돌아와서, 사실 현재 이론적으로 면밀하게 정말 양자 이득이 확실히 가능하다라고 알려진 것들도 있는데. 문제는 이런 것들은 하드웨어단에서 Breakthrough가 있어야지만 되는 것입니다. 또 오른쪽에는 가까운 미래에 뭘 해 볼 수가 있느냐? 를 봤을 때 해 볼 수 있는 것들이 꽤 있긴 한데. 얘네들은 또 이론적으로 면밀하게 이게 정말 양자 이득이 있다라는 것을 증명하는 거는 또 어렵습니다. 그래서 이런 갭이 있는데 물론 한편으로는 정말 하드웨어단에서 그런 Breakthrough가 일어날 수 있도록 노력이 필요합니다. 다른 한편으로는 지금 일단 당장 활용을 해 볼 수 있는 양자 컴퓨터를 활용해보고, 다양한 데 응용을 해보고, 새로운 아이디어도 많이 적용을 해 봐서 Empirical하게 실험적으로 경험적으로 양자 컴퓨터를 쓰는 데 이점이 있는지 이런 것들을 한번 탐험을 해 보는 그러한 시도들이 많이 필요합니다. 그리고 실제로 잘 아시겠지만 AI가 발전을 해올 때 보면 물론 AI도 이론적으로 아주 탄탄한 이론들이 많이 있습니다. 통계적인 학습 이론들이 탄탄하게 있는 것들이 많이 있는데. 또 막상 혁신은 계속 새롭게 실험을 해 보면서 일어난 것들이 많이 있거든요. 그래서 양자도 이론적인 부분이랑, 그리고 또 실험적으로 계속 테스트를 해 보는 그 두 개가 같이 가야 될 거라고 보고요. 그리고 최근에 계속해서 이런 하이브리드, 제가 오늘 말씀드렸던 그 고전-양자 하이브리드 알고리즘들이 계속해서 연구가 되면서 점점 갭이 줄어들고 있다고 생각이 됩니다. 긴 시간 들어 주셔서 감사드리고요. 강의는 여기서 마치도록 하겠습니다. 감사합니다.

내용

제1010회 한은금요강좌


 ㅇ 일시 : 2025. 9.26(금), 14:00~16:00

 ㅇ 주제 : 양자컴퓨팅과 AI : 기회와 도전

 ㅇ 강사 : 연세대학교 응용통계학과 박경덕 교수

유용한 정보가 되었나요?

담당부서
경제교육실 경제교육기획팀
전화번호
02-759-4269, 5325

내가 본 콘텐츠