양자 컴퓨터

From Hidden Wiki
Jump to navigation Jump to search

[include(틀:프로젝트 문서, 프로젝트=나무위키 물리학 프로젝트)]

* 컴퓨터 관련 정보

{{{+1 量子컴퓨터 / Quantum Computer}}} width=500 [목차]

개요

양자 역학에서 양자 얽힘, 중첩, 텔레포테이션 등의 효과를 이용해 계산하는 컴퓨터. 기존 컴퓨터가 0과 1만 구분할 수 있는 반면, 양자 컴퓨터는 0과 1을 동시에 공존 시킬 수 있어[* 이를 큐비트라고 부르는데 Quantum bit를 Q bit라고 줄인 것으로 기존 컴퓨터의 정보 단위인 비트와 달리 여러 값을 동시에 가질수 있다.] 이론적으로 현존 최고의 슈퍼 컴퓨터가 수백 년이 걸려도 풀기 힘든 문제도 단 몇 초 이내의 속도로 풀 수 있을 것으로 전망되고 있다.

--만약 양자컴퓨터가 대중화되면 AES-256 암호화는 물론 여러 암호화 알고리듬들이 쉽게 깨지게 될것이고, 브루트포싱 공격이 판을 칠 가능성이 높다.--

상세

'꿈의 컴퓨터', '스스로 생각하는 컴퓨터'라는 별명을 가진 계산기.[* 물론 양자컴퓨터 그 자체가 정말로 스스로 생각하는 컴퓨터인 것은 아니며, 적어도 사용자의 적절한 개입이 없으면 혼자서는 아무것도 못 하는 건 보통의 컴퓨터와 같다. 그럼에도 이런 별명이 붙은 것은 월등한 처리능력을 바탕으로 인공 지능의 새로운 장을 열 수 있기 때문.] 양자역학의 거장 리처드 파인만이 구상자로, 실질적인 작동원리는 옥스퍼드대의 데이비드 도이치 박사가 고안하였다. 트랜지스터로 만들어진 게이트 대신 양자(量子)를 연산법칙으로 사용한다. 무어의 법칙[* 무어의 법칙은 기술의 발전이 이를 철저히 따른다기보단 상업적인 움직임을 나타낸 것에 더 가깝다. 최근에는 집적도를 늘리면 늘릴수록 재료 아끼기로 비용이 절감되는 수준이 아니라 가공에 돈이 더 들어가게 되어 2배로 증가시킬 이유가 사라졌고, 다른 회사들도 집적도를 늘리려는 노력이 손해인 것을 알아서 미적대기에 경쟁 열풍마저 사그라들어서 더는 성립하지 않는다. 대신 논리 회로 구조를 뜯어고치거나, 작동 원리를 바꾸는 식으로 성능 개선에 진전을 보이고 있다고 한다.] 에 따르면, 회로 집적도가 크게 증가하여 2010년대 말 ~ 2020년대 후반 즈음에는 양자 터널링 현상이 발생하여 전자들을 통제할 수 없을 것이라고 전망되기 때문에[* 이미 2018년 현재 10나노 미만의 공정이 개발되고 있는데, 14나노 칩에서도 양자 터널링으로 인한 누설전류가 심각한 상황이다. 트렌지스터가 on일때랑 off일때의 전류 차이는 점점 줄어들고, 최신 칩은 전압만 넣고 아무것도 안 하는 상태에서도 전류를 줄줄 새면서 돌아가는 수준. 때문에 idle상태의 블럭을 통채로 전류를 차단하는 power gating, 로드 수준에 따라 전압/클럭을 실시간으로 올렸다 내렸다 하는 DPM(dynamic power management)등 별의별 짓을 다 해가며 발열을 잡으려 하고 있다.], 양자 컴퓨터는 미래 컴퓨터의 대안이 될 수 있다.

각 선진국의 최고 과학기술원들과 IBM, Google, Microsoft, Intel 등에서 연구하고 있다. 그만큼 관심이 높고 상용화가 되는 순간 대박이 될 물건. 양자 컴퓨터를 어떻게 만드는가에 관해서는 아직 정해진 것이 없고, 물리적으로 수많은 난제들이 남아있기 때문에 국가, 연구소, 기업별로 다양한 방법들이 시도되고 있다.

한편, 또 다른 양자역학 효과를 이용한 계산기도 양자 컴퓨터라고 불리고 있어 일반인들에게 혼란을 주고 있는데 대표적으로 양자 어닐링(Quantum Annealing), 양자 신경 네트워크(Quantum Neural Network)가 있다. 이러한 효과를 이용한 양자 컴퓨터들도 비슷한 규모 대비 기존 컴퓨터에 비해 효율적이고, 빠르지만 일반적으로 생각되는 양자 컴퓨터의 성능에는 택도 없이 못 미친다. 위에 언급했듯이 양자중첩과 양자얽힘 효과를 이용하여 계산하는 양자 컴퓨터의 성능은 현존 최고의 슈퍼 컴퓨터의 계산 속도보다 수억 배는 빠를 것으로 추측되고 있으며, 이러한 범용 양자 컴퓨터는 IBM이 개발을 주도하고 있다.

원리

원자를 잡아둔다

전자기파를 이용하여 원자 하나를 붙잡아 두는 기술이 있는데, 이것이 양자컴퓨터의 정보 단위인 퀀텀비트(큐빗)을 만들 수 있는 핵심기술이다. 진공 상태의 공간에 루비듐 원자를 풀어 원자구름이 형성되게 끔한다. 루비듐 원자구름에 x,y,z축의 방향에서 루비듐원자에 알맞은 진동수의 빛을 발사하여 원자구름에 있는 루비듐원자의 운동에너지를 상쇄시켜 공간의 가운데에 정지시킨상태로 두고 원자 하나하나를 분리하여 큐빗으로 제어할 수 있는 상태를 만드는 것인데 카이스트(KAIST)에서는 이 기술을 부분적으로 성공시켜서 일부 원하는 대로 원자를 이동시킬 수 있는 개발하는데 성공하였다고 한다. 이것은 현재 카이스트에 있는 기술로 큐빗의 가장 기본적인 원리가 된다.

원리

|| [youtube(JhHMJCUmq28)] || || 쿠르츠게작트의 설명. (한글 자막) || 흔히 양자컴퓨터에 대해 알려져 있는 오해는, 양자컴퓨터는 일종의 병렬 계산을 할 수 있어서 (양자 중첩으로) 고전 컴퓨터보다 훨씬 빠른 연산이 가능하다고 생각하는 것이다. 0과 1이라는 비트 대신에, 0이라는 상태와 1이라는 상태의 임의의 선형 결합이 가능하다는 양자역학적 특성을 보면 그 설명이 자연스러운 듯이 느껴지기도 한다. 또한 일반적으로 양자컴퓨터에 대한 대중적인 설명을 할 때 거의 예외 없이 그런 설명이 나온다. 하지만 이는 올바른 설명이 아니다. 만일 정말로 그렇다면, 병렬 계산에 의해 임의의 NP 문제는 효율적으로 풀릴 수 있으므로[* 각각의 witness들에 대해 병렬적으로 이들이 올바른 NP witness인지 확인한다.] 양자 컴퓨터는 임의의 NP 문제를 효율적으로 풀 수 있어야 할 텐데, 아마도 그렇지 않을 것임을 시사하는 증거들이 있기 때문이다.

이를 이해하는 또 한가지 방법은 양자 계산과 확률적 계산을 비교하는 것이다. 2^^n^^개의 상자가 있고, 그 상자들 중 단 하나에 공이 들어있다고 하자. 공이 들어있는 상자를 확실히 찾기 위해서는 고전 컴퓨터는 2^^n^^번 상자를 열어야 한다. 양자 컴퓨터가 만일 그 '병렬성'을 이용해서 이 문제를 풀 수 있다면, 상자를 한 번만 열어보면 될 것이다: 열어볼 상자의 번호를 n비트로 적어서, 그 번호에 해당하는 상자를 연다. 다만, 여는 동작을 하기 전에 가능한 2^^n^^개의 n비트 번호들을 양자 중첩 상태로 만들어서 이들을 각각 열면 될 것이다. 하지만, 비슷한 일을 확률적 알고리즘으로도 마찬가지로 수행할 수 있다: 동전을 n번 던져서 상자의 번호 n비트를 모두 결정한 뒤에, 결정된 번호의 상자를 열면 된다. 0번 상자를 여는 행위부터 2^^n-1^^번 상자를 여는 행위까지가 확률적으로 '중첩'되어 있고, 각각의 상자에 대해서 그 상자를 열고 공을 발견할 확률이 0보다 크니까 된 것 아니겠는가.

위와 같은 구라를 들으면 거의 누구라도 '하지만 그렇다면 상자를 열어서 공을 발견할 확률은 기하급수적으로 작은 2^^-n^^밖에 되지 않으므로 사실상 못 찾는다고 봐야겠네요'라고 곧장 반박할 것이다. 물론 그렇다. 그리고 정확히 같은 반박을 양자컴퓨터에 대해서도 적용할 수 있다. 확률적 알고리즘도 가능한 모든 상태의 확률적 중첩을 만들어낼 수 있지만 그렇게 하면 각각의 상태가 갖는 확률이 기하급수적으로 작아져서 의미없는 알고리즘이 되듯이, 양자알고리즘 또한 가능한 모든 상태의 양자적 중첩을 만들어낼 수 있지만 그렇게 하면 각각의 상태가 갖는 '진폭(amplitude)'이 기하급수적으로 작아져서 의미없는 알고리즘이 된다.

양자 알고리즘과 확률적 알고리즘의 가장 근본적인 차이점은, 확률은 음수일 수 없지만 양자역학의 확률 진폭은 음수일 수 있을 뿐만 아니라, 심지어 실수가 아닌 복소수일 수도 있다는 것이다. 양수끼리는 상쇄될 수 없지만, 양수와 음수는 상쇄될 수 있다. 그리고, 진폭의 절대값의 제곱이 확률이 되고, 확률의 총합은 1로 보존되므로, 어떤 상태의 진폭이 상쇄되어 0이 된다면, 무엇인가 다른 상태의 진폭은 총합이 보존되기 때문에 커져야 한다. 대략 말하자면, 양자 컴퓨터는 오답을 상쇄시키고 정답을 증폭시킬 수 있다. 모든 문제가 다 그렇다는 것이 아니라, 최소한, 어떤 문제들에 대해서는.

양자역학을 설명할 때 아주 초반에 나오는 이중 슬릿 실험의 예를 생각해보자. 고전적인 상식에 의하면, 빛이 1번 슬릿 또는 2번 슬릿을 통과한 뒤에 스크린의 어딘가에 떨어질 확률 분포는, 빛이 1번 슬릿을 통과한 뒤에 스크린의 어딘가에 떨어질 확률 분포와 2번 슬릿을 통과한 뒤에 스크린의 어딘가에 떨어질 확률 분포를 더해놓은 형태가 되어야 할 것이다. 하지만 실제로 이 실험을 수행해 보면, 어떤 위치에서는 두 개 슬릿을 다 열어둘 때에 오히려 광자가 올 확률이 떨어지는 현상이 발생한다. 모두 0 이상인 확률로 계산을 하면 이런 결과가 나올 수가 없지만, 복소수 값을 갖고 음수 값을 가질 수 있는 진폭으로 계산을 하면 이런 결과는 자연스럽게 발생할 수 있다.

다만, 위에서 언급한 음의 확률이나 복소수 확률은 계산상의 편의를 위해서 도입된 것이다. 교류회로의 임피던스 등에서도 계산상의 편의를 위해 복소수 표현을 쓰는 것과 마찬가지로 확률파동에서도 그 절댓값의 제곱만이 물리적 의미를 가진다. 실질적으로 의미가 있는 값들은 복소수 그 자체가 아니라 실수부분. 허수부분이거나 절댓값이다. 확률파동 자체는 복소수이지만, 확률파동 자체는 물리적 의미가 없으니(위에서 언급한 대로 그 절댓값의 제곱만이 물리적 의미-발견확률-을 가진다) 혼란에 빠져선 안 된다.

고속 연산

물론, 양자컴퓨터는 컴퓨터니까 고전 컴퓨터가 할 수 있는 일들을 모두 할 수 있고, 경우에 따라서는 같은 문제를 고전적인 컴퓨터에서 알려진 최선의 알고리즘보다 훨씬 더 빨리 풀기도 한다. 하지만 이는 소위 '처치-튜링 명제'를 뛰어넘는 능력을 양자컴퓨터가 가지고 있다는 의미는 아니다. 즉, 양자컴퓨터가 할 수 있는 계산은 고전컴퓨터도 시뮬레이션을 통해 따라하는 것이 가능하다. 시뮬레이션의 속도가 느려서 그렇지.

오히려 자명하지 않은 부분은 반대 방향이다. 고전컴퓨터가 할 수 있는 일은 과연 양자컴퓨터가 다 할 수 있는가? 양자컴퓨터는 비싸니까 당연히 더 좋겠지라고 생각하면 속은 편하겠지만, 여기에는 한 가지 문제가 있다. 양자역학에 의하면, 양자역학적인 시스템은 '유니터리'한 방식으로밖에는 변화할 수 없다. 유니터리 행렬은 항상 역행렬을 갖고, 따라서 역변환이 가능하므로, 계산의 결과로부터 계산의 입력값을 되찾는 것이 가능해야 한다. 그런데 함수 f(x)가 일대일이 아니라면, x라는 입력으로부터의 계산 결과가 y가 나왔을 때에, 해당 y에 대응하는 원래의 오리지널 x가 꼭 하나만 있었을 필요가 없다. 예를 들어, 거듭제곱 함수 f(x)=x^^2^^를 생각하면, f(x)=f(-x)=x^^2^^가 되므로 x로부터 y가 나왔다고 해도 원래의 입력이 x였는지 -x였는지 알 방법이 없다. 즉, x로부터 y를 구하는 과정은 비가역적일 수 있다. 세상에는 고전 컴퓨터가 멀쩡하게 계산을 잘 하는 비가역적인 간단한 함수들이 널려있고, 이런 함수들은 아무리 간단해도 불행히도 양자컴퓨터가 계산하지 못한다.

다만, 당연히도 이런 문제를 피해가는 방법이 있다: x로부터 f(x)를 구하는 대신에, x로부터 (x, f(x))를 구하면 된다. 즉, 양자컴퓨터가 일대일이 아닌 함수를 계산할 때에는, 출력과 함께 원래의 입력을 같이 출력하면 된다. 정보의 손실이 없으므로 이 입력과 출력의 관계는 일대일이 되므로, 이 비가역성의 문제를 비껴갈 수 있다. 하지만 그렇다고 해서 그런 방식으로 양자컴퓨터가 고전컴퓨터가 할 수 있는 일을 모두 다 시뮬레이션할 수 있는지는 결코 자명한 문제는 아니다. 결론만 말하자면, (예상하겠지만) 가능하다. 모든 고전적인 계산은 가역적인 방식으로, 엔트로피의 손실 없이 (따라서 열을 내지 않고!) 처리하는 것이 가능하다는 사실이 알려져 있고, 그러한 가역적인 계산은 양자컴퓨터도 수행하는 것이 가능하다. 따라서 양자컴퓨터는 고전컴퓨터가 할 수 있는 일을 최소한 고전컴퓨터만큼의 속도로는 처리할 수 있다. 최소한 이론적으로는.

그 다음의 문제는, 양자컴퓨터가 같은 문제를 고전컴퓨터보다 더 빨리 계산할 수 있느냐이다. 이는 문제에 따라 다르다. 풀어야 할 문제 자체에 그러한 규칙성이 별로 없는, 예를 들어 앞에서 언급한 2^^n^^개의 상자를 여는 문제 같은 경우에는 (상자 한 개를 연 결과가 다른 상자를 연 결과에 대해서 무엇을 말해주겠는가. 별로 말해줄 것이 없다.) 정답의 확률 진폭을 끌어올리고, 오답의 확률 진폭을 죽여버리는 작업이 필요한데, 이는 당연히 공짜가 아니다. 요약하자면, 그로버의 알고리즘에 의하면, 대략 2^^n/2^^번 정도 상자를 '양자적으로' 열어 보면 공이 어느 상자에 있는지를 유의미한 확률로 맞힐 수 있다. 이는 고전적인 결과에 비하면 엄청난 개선이지만, 여전히 지수적인 속도 향상이 아니라 다항식적인 속도 향상에 불과하다. 그리고 상자를 열어서 공을 찾는 문제의 경우에는 사실상 이 알려진 알고리즘이 최선이라는 사실이 증명되어 있고, 이것이 아마도 양자컴퓨터가 임의의 NP 문제를 다항식 시간 내에 풀지는 못할 것으로 보인다는 추측의 근거가 된다.

하지만 어떤 문제들은 양자컴퓨터가 기존에 알려진 고전 알고리즘보다 지수적으로 빠른 계산을 해낼 수 있다는 사실이 알려져 있다. 소인수분해, 이산 로그 등이 그러하다.이러한 속도의 향상은 양자 중첩, 병렬성에서만 나오는 것이 아니다! 확률 진폭이 서로 상쇄가 가능하다는 것이 주된 원인이다. 소인수분해나 이산 로그를 효율적으로 풀 수 있으면, 현대 암호학의 공개키 알고리즘의 적지 않은 부분들을 깰 수 있기 때문에 이는 현재까지 알려진 양자컴퓨터의 가장 유력한 '킬러 어플리케이션'이다.

쇼어 알고리즘은 소인수분해를 <math>O(\log^3 n)</math>번만에 풀 수 있는 양자 알고리즘이다. 고전적으로 알려진 (여태까지의) 최선의 알고리즘보다 지수적인 속도 향상이 있었다.

양자컴퓨터가 고전 컴퓨터에 비해 확실하게 독보적으로 우월한 것은 양자역학적인 시스템을 시뮬레이션하는 것이다. 이거야 말로 에뮬과 네이티브 실행을 비교하는 격.

양자컴퓨터가 다항식 시간에 풀 수 있는 문제의 집합을 BQP라고 하는데, 이와 NP와의 관계는 아직 정확히 밝혀지지 않았다. 양자 검색 문제를 양자컴퓨터가 다항식 시간에 풀지 못한다는 사실이 증명되어 있기 때문에, 아마도 NP가 BQP에 포함되지는 않을 것이라고 본다. 그렇다면 반대방향은 어떠한가? 즉, BQP는 NP에 포함되는가? 다른 말로, 양자컴퓨터가 할 수 있는 일은 비결정적 컴퓨터가 모두 할 수 있는가? 역시 아직까지 확실하게 알려진 것은 없으나 아마도 BQP는 NP에 속하지 않는 문제를 담고있을 것이라고 본다. 뿐만 아니라, BQP는 PH, 즉 polynomial hierarchy도 벗어날 것으로 추측한다.[* 이에 대해서는 다음을 참고: http://www.scottaaronson.com/papers/bqpph.pdf ] 정리하면, BQP와 NP, 다른 말로, 양자컴퓨터와 비결정적 컴퓨터는 (아직 정확히는 모르지만) 서로 상대방보다 더 효율적인 부분이 있을 것이다는 말.

보안

현재 거의 대부분의 보안시스템 알고리즘은 소인수분해에 의거하고 있는데 이것을 해석할 때 현재 컴퓨터상에서 하자면 너무나 오랜시간이 걸린다. 예를 들어 1994년 RSA129로 알려진 129자리 숫자(426비트)를 소인수분해 하는 데에는 이 알고리즘을 이용하여 세계에 있는 1,600여 대의 워크스테이션을 병렬로 연결하여 8개월이 걸렸다. 이 알고리즘대로 250자리의 수(829비트)라면 800,000년이 걸릴 것이며, 1,000자리라면 1025억 년이 걸릴 것이다.[* 보안시스템 알고리즘에서 실제로 사용되고 있는 RSA 모듈러스는 대개 1024비트 혹은 2048비트의 크기이다. 일부는 4096비트도 사용하기도 한다.] 이것은 우주의 나이보다 더 많은 시간이다. 그냥 더 많은 것이 아니라 우주가 만들어져서 지금까지 성장한 과정을 몇 번을 반복할 수 있는 시간이다.

하지만 양자컴퓨터라면 앞서 이야기했듯이 순식간에 계산되므로 현재 사용되는 보안알고리즘은 더 이상 사용할 수 없고 우리가 사용하는 시디키도 마찬가지로 소인수분해 알고리즘을 사용하기 때문에 무한정 복사기마냥 시디키를 복제해서 찍어낼 수 있게 된다. 2011년의 양자컴퓨터는 아직 겨우 21을 소인수분해하는 데 성공한 수준이지만, 컴퓨터 분야의 발전 속도는 이쪽 방면 학자들의 상상마저 초월하는 경우가 많아서.[* 일반인들에게 어필할 수 있는 예시로, 우리 손 안에 있는 스마트폰의 연산능력은 NASA가 69년에 쓰던 슈퍼컴퓨터의 몇천배 이상이다.]

소인수분해 문제 이외에도 수많은 암호 알고리즘이 바탕을 두고 있는 이산로그 문제 역시 양자컴퓨터로 해결할 수 있다. 따라서 양자컴퓨터가 본격적으로 실용화되면 현재까지 개발된 대부분의 암호 알고리즘이 쓸모없어지게 된다.

그렇다고 양자컴퓨터가 모든 암호 문제를 박살내는 건 또 아니다. 현재 모든 암호계는 NP문제이다. 양자컴퓨터가 NP-완전 문제를 다항 시간에 풀 수 있다는 잘못된 인식이 널리 퍼져 있으나 확실히 증명된 바는 없다. 그리고 컴퓨터가 진화했던 만큼 더 안전한 알고리즘을 만들면 되기 때문에 기존과는 차원이 다른 보안 알고리즘을 사용할 가능성이 남아있다.[* 마음만 먹으면 지금 기술로도 충분히 32kB짜리 보안 알고리즘을 개발할 수 있다. 다만 암호화 자체의 시간이 길어지는 등 기술적 한계가 남아있기 때문에 아직 만들지 않고 있는 것 뿐이다.] 게다가 현재 제안된 알고리즘들 중 격자 기반(lattice based) 암호계는 아직 양자컴퓨터로 해결할 알고리즘은 없다.[* 격자 관련 문제들 중에는 NP 완전 문제가 있는 것이 사실이고, 아마도 양자컴퓨터가 NP 완전 문제를 다항식 시간 내에 풀지 못할 것을 시사하는 증거들이 있는 것을 감안하면, NP 완전성 때문에 격자 기반 암호가 양자컴퓨터에 대해 안전하지 않을까 생각되기도 하지만, 정확히 그렇지는 않다: 대부분의 경우, NP 완전 문제에서 출발하는 암호 시스템의 경우에도, 임의의 문제가 아니라 답을 알고있는 문제를 생성해야 하기 때문에, 원래의 NP 완전 문제를 변형하는 과정이 들어간다. 즉, 현재까지 순수하게 그 안전성이 NP 문제가 효율적으로 풀리지 않는다는 가정에만 의존하는 암호 체계는 발견된 적이 없고, 이는 격자 기반 암호의 경우에도 마찬가지이다. 즉, 격자 기반 암호를 효율적으로 푼다고 해서 어떤 NP 완전 문제를 효율적으로 풀게되는 것은 아닐 가능성이 높다.] 따라서 양자컴퓨터가 실용화된다면, 그리고 그 때까지 격자 기반 알고리즘을 양자컴퓨터로 해결할 알고리즘이 개발되지 않는다면, 격자 기반 알고리즘이 공개키 암호계의 대세를 차지하게 될 가능성도 있다. 그 외에도 AES와 같은 블록 암호들 역시 아직 양자컴퓨터로 깨뜨릴 알고리즘이 나오지 않았으므로 현재로서는 '양자컴퓨터가 급격히 실용화되더라도' 안전하다고 볼 수 있을 것이다. 결정적으로 폰 노이만 구조의 한계를 그대로 답습하고 있는 한, 모든 NP문제를 P 시간에 풀 수 있을 거라고 장담할 수도 없다.

양자 겹침과 얽힘 현상을 충분히 유지 시킬 수 있다면, 큐비트 전송은 이론적[* 실제로 2010년경에 양자암호의 취약점을 발견한 사례도 있다. [[1]]]으로는 무적의 전송기술이 된다. 외부에서 큐비트 정보에 접촉했을 때, 큐비트들은 큐비트의 성질을 잃어 전자적 상태로 돌아간다.(0또는 1이 된다.) 이것을 수송신자는 바로 알아차릴 수 있으며, 그 정보를 수정/폐기하고 침입자를 제거하는 것으로 보안성을 매우 높인다. 침입자도 1회의 침입으로는 정보를 알아낼 수 없기에, 헛수고가 되는 신뢰성 높은 보안방식이다.

물질 전송/재조합?

물질 전송/재조합은 양자컴퓨터와 관련이 없다. 오히려 양자정보(quantum information)나 양자전송(quantum teleportation)과 관련이 있다. 애초에 물질 전송이라는것은 물질을 보내려는 쪽에 있는 물질이 어떤 상태로 존재하는가를 전송해서 반대쪽에서 그 정보를 받아 물질을 재구성하는 것을 말한다. 이 과정에서 필연적으로 물질을 보내는 쪽에 있는 물질의 상태가 붕괴되기 때문에 양자전송이라는 용어를 사용하는 것이다.

즉, 다시 말해 실제로 물질이 전송되는 것도 아니고 3D 프린팅 기술로 사용될 수 있는 것도 아니며, 물질을 복제한다는 것은 더더욱 아니다.(애초에 물질을 복제한다는 것은 물리학의 기본법칙을 위배한다.)

결론적으로 양자컴퓨터와는 전혀 관계 없는 내용이다.

실용화 가능성

[youtube(_NRmOe1b8_s)]

2018년 현재 시점에서는 일상에서 쉽게 활용할 정도로 실용화되기까지는 상당히 많은 시간이 남았다 할 것이다. 그 근본적인 이유는 일단 현재 인류가 가진 기술로는 양자를 효과적으로 통제하기 어렵다는 것.

현재의 기술로는 양자로 구성되는 큐비트를 충분한 시간 동안 유지시킬 수가 없고, 외부 환경의 경미한 영향에 의해 큐비트가 변형되는 것을 막을 수가 없다. 일단 IBM이 만드는 범용 양자컴퓨터의 프로세서나 D-WAVE가 만드는 양자 어닐링 컴퓨터의 프로세서는 큐비트를 최대한 오랜 시간 동안 유지시키기 위해 절대영도에 근접한 극저온 + 진공상태에서 전기 저항이 0이 되는 초전도체를 주재료로 만드는데, 이로 인해 제조단가가 무지막지하게 올라가고 작동시에는 초전도 상태를 유지해야 하므로 우주환경을 조성할 수 있는 진공 냉각장치가 요구되기 때문에 운용 비용도 상당히 비싸다. 또, 큐비트가 외부 환경에 의해 영향을 받는 것을 차단하기 위해 고도의 방음, 차진 설비를 두어야 하기 때문에 컴퓨터의 부피도 매우 크다. 또한, 현재는 큐비트를 고도로 집적시킬 수 있는 기술이 아예 없기 때문에 아주 제한된 수준의 컴퓨팅 성능만을 이끌어 낼 수 있는 것으로 알려져 있다. --하지만 아예 우주에서 양자컴퓨터를 만들면 어떻게 될까-- --실재로 구글과 나사가 손을 잡았다-- --본격 스카이넷--

이러한 문제를 해결하기 위해서는 일단 큐비트를 항구적으로 유지할 수 있는 기술을 개발해야 한다. 큐비트만 항구적으로 유지하고 효과적으로 통제할 수 있다면 굳이 프로세서를 제조하는데 초전도체를 사용하지 않아도 되고, 외부 환경에 의해서 변형되는 것도 어느 정도 관리할 수 있기 때문이다. 큐비트 안정화에는 마요라나 페르미온이라는, 물질과 반물질의 경계에 있는 특수한 입자가 도움을 줄 수 있을 것으로 기대되고 있는데, 특히 마이크로소프트가 이 입자에 주목해 이를 이용한 궁극의 양자 컴퓨터 개발을 연구하고 있다.

집적 문제에 의한 성능 문제는 일단, 현재 양자 컴퓨팅을 사용하려는 목적은 성능 자체보다는 큐비트 프로세싱의 알고리즘적 특성이기 때문에 당장 문제가 되지는 않는다고 한다.

한편, 소프트웨어도 심각한 문제가 될 것이라 전망되었다. 양자 연산은 기본적으로 양자의 성질에 의해 확률적인 값을 갖게 되는데 이 때문에 정확도가 떨어져 오류가 발생하기도 한다. 이런 오류를 최소화 하는 것이 소프트웨어를 이루고 있는 양자 알고리즘의 과제이다. 현재 이 문제를 해결하기 위해 투입 되고 있는 알고리즘으로는 대표적으로 쇼어 알고리즘이 있다.

일단 현재 수준에서는 양자 컴퓨터가 실용화된다고 하더라도, 단순한 수학적 계산에만 활용되는 수준이며, 엔드 유저 입장에서는 게임은 커녕 워드프로세서도 사용할 수 없는 수준이다. 다만 현재처럼 반도체 공정이 계속해서 극미세 단계로 접어들게 되면 반도체의 한 비트 할당 공간이 분자, 원자, 소립자 단계까지 내려가게 되는데, 이때는 전기 동력원인 전하보다 회로가 더 작아지는 사태가 발생할 수 있다.[* 실제로 나노 단위 크기로 도달해도 양자현상이 일어나기 때문에 고성능화 반도체레이저, 트랜지스터에 양자사이즈효과를 응용하고 있다.][* 전자가 너무 작아서 아직까지의 모든 실험에서는 크기가 0으로 측정됐다.] 이렇게 될 때의 대안이 바로 양자 메커니즘에 의한 컴퓨팅이다.

2016년 5월 4일, IBM에서 자사 클라우드에서 양자컴퓨터를 사용할 수 있게 하였다. 양자 게이트들의 조합을 업로드하면 5bit 양자컴퓨터가 실행해서 계산 결과를 알려주는 방식 [[2]]

양자컴퓨터만 사용하는 시대가 온다는 것은 아직까지는 가능성이 매우 낮다. 두 종류의 컴퓨터가 서로 얻고자 하는 결과값을 얻고자 할때 최적화 된 중간과정이 다를 뿐더러[* 이는 CPURISC방식의 아키텍처와 CISC 방식의 아키텍쳐 설계와 같이 서로 목적에 맞게 최적화 되어있다,] 양자컴퓨터만으로 현대 컴퓨터의 모든 기능을 대체한다는것은 에뮬레이터, 가상머신을 구동하는 것과 같은 매우 낮은 효율을 보여주게 된다. 결국 이와 같은 문제를 해결하기 위해서는 양자 컴퓨터와 기존의 튜링 컴퓨터가 서로 상호 보완해주는 시대가 올 가능성이 높다.

양자 우위와 오류

양자 우위(quantum supremacy)란 양자 컴퓨터가 기존의 디지털 컴퓨터의 성능을 앞지르는 것이다. 미국 물리학자 존 프레스킬(캘리포니아공대 교수)가 처음 사용한 개념이다. 50큐빗의 양자 컴퓨터라면 양자 우위를 달성할 수 있다고 알려져 있다.

1큐빗이 늘어날 때마다 메모리와 통신대역이 기하급수적으로 증가하는 양자컴퓨터의 특성 때문에 양자 우위를 달성한다면 기존 컴퓨터로는 더 이상 시뮬레이션 할 수 없게 된다. 지금 우리가 가진 슈퍼컴퓨터로 5큐빗이나 20큐빗 양자컴퓨터가 할 수 있는 일은 가능하지만, 50큐빗 양자 컴퓨터를 시뮬레이션 하는 것은 물리적으로 불가능하다.[* [새 영역 개척할 양자 컴퓨터] 참고 ]

2018년 3월, 구글에서 브리슬콘이라고 명명된 72큐빗 양자컴퓨터를 선보였지만[* [, 양자컴퓨터 개발 새 장...72큐빗 칩 선보여] ] 아직 양자 우위에는 도달하지 못했다는 의견이 있다. 양자 오류라고 불리는 현상 때문이다.

외부 환경의 영향을 받지 않도록 완전하게 격리된 채 연산을 실행해야 하는 매우 민감한 조건의 양자 프로세서 칩에서는 불가피하게 연산 오류가 생기는데 이런 양자 오류를 보정하는 데에는 또 다른 보정용 큐비트들의 기술과 비용이 추가로 들어간다.

양자 컴퓨터 전문가들은 논리 연산에 쓰이는 큐비트 1개가 오류 없이 보호를 받으며 실행하는 데에는 양자 오류 보정용으로서 수백 내지 수천 큐비트가 추가로 필요할 것으로 보고 있다. 현재 50 내지 수백 큐비트 규모의 시스템에서는 이런 오류 보정이 적절하게 이뤄지기 힘들다는 것이고, 이런 상황에서는 양자 컴퓨터가 내놓은 답이 과연 정확한 답인지 확인하기도 어렵다는 것이다. 프레스킬 교수는 연산 알고리즘에서 오류를 보정하면서 수천 큐비트를 연산에 쓰려면 수백만 개의 큐비트가 더 필요할 것이라고 추산했다.[* [‘50큐비트’ 넘어도 ‘진정한 양자컴’은 아직 멀다”]에서 인용 ]

좀 어렵다 싶으면 4진법을 생각해 보면 된다. 계산이 제곱배로 빨라진다. 2랑 3는 단순히 2배지만 2자릿수는 4와 16인 것처럼 제곱배. 또한 기존보다 소형화가 가능하니 매력적일 수밖에 없다.

수학자 질 킬라이는 양자 오류를 보정하는 것이 불가능하다고 주장한다. [질 칼라이가 양자컴퓨터가 동작하지 않을 것이라 생각하는 이유]에 자세한 내용이 나와 있다. 킬라이에 따르면 자신의 의견은 소수 의견에 속하지만 상당한 확신을 가지고 있다고 한다.

상용 제품 개발

양자 컴퓨터에 대한 연구는 미국이나 유럽을 중심으로 연구 되고 있는 것으로는 알려져 있다. 연구 현황이 잘 알려지고 있지는 않지만 IBM에서도 많은 인력을 동원하여 양자 컴퓨터를 연구하고 있다고 한다.

D-Wave 시리즈

2011년 캐나다의 D-Wave 시스템즈라는 회사에서 양자 터닐링을 이용한 특수목적형 컴퓨터인 D-Wave I을 출시하였지만, 이는 여기에서 이야기하는 양자 컴퓨터와는 좀 다르다. 고로 아직까지 상용 양자 컴퓨터는 존재하지 않는다.

D-Wave 양자 어닐링(quantum annealing) 컴퓨터

D-WAVE는 도쿄대학교의 니시모리 히데미모루 교수가 만든 양자 어닐링 개념을 이용해 캐나다에서 개발한 대체한 특수목적형 컴퓨터로서 궁극적인 목표인 양자게이트를 사용하는 범용 양자 컴퓨터와는 거리가 멀다. 128-qubit 프로세서를 사용하며, 크기는 10m^^2^^ ...약 3평 정도 극저온 냉각 시스템 때문에 저런 크기가 나온 듯하다. 개발 회사에서는 정부 및 회사용으로 생각하고 개발한 듯.

양자암호통신의 대가로 유명한 IBM의 John Smolin은 이 컴퓨터는 양자 컴퓨터라 부를 수 없다고 말했으며, 양자 어닐링 관측을 통한 해당 컴퓨터의 실질적인 성능도 기존 어닐링 방식과 비교해봐도 우월할 것이 없다는 얘기를 했다. 실제로 비교 실험에서 이 컴퓨터의 우월성은 증명되지 않았고 심지어 기존의 어닐링 방식보다 느리기도 했다. 그러나 시간이 지나면서 양자 어닐링 방식이 유용한 실례 역시 발굴되어, D-WAVE사 컴퓨터의 구입처 중 하나인 구글의 엔지니어들이 발표한 [[3]]에 따르면 2000큐비트 모델인 D-Wave 2X 의 경우 싱글코어 컴퓨터의 1억배에 해당하는 속도를 보였다.

미국의 방위산업체인 록히드마틴에서 100억 원에 구입했는데, 얼핏 돈지랄 같지만 기업 입장에선 싼 거다.[[4]] 이후 구글NASA 역시 D-WAVE의 컴퓨터를 구입했다.

2011년 D-Wave Systems 사에서 D-Wave 1을 발표하였다. 가격은 약 천만 달러. 하지만 D-Wave 1은 일반적으로 알려진 범용 양자 컴퓨터는 아니며[* 양자컴퓨터라며 언플과 광고를 엄청 해댔다. 그래서 처음엔 학계에서도 이 물건이 정확하게 무엇이냐고 아리송해 하는 사람들이 많았다. 이 위키에도 그 광고에 낚인 내용이 잔뜩 쓰여 있었지만 지금은 수정.] 특정한 종류의 최적화 문제에 특화된 하드웨어를 갖고 있다. 양자 어닐링을 이용하는 특수목적형 컴퓨터이며, 양자 어닐링은 기존 어닐링 방식에 비해 특별히 나은 성능을 지니는지에 대해서도 아직 확실하게 알려져 있지 않다. [참고].

2013년 7월, 구글NASA가 공동 설립하는 인공지능 연구소에서 차기 모델인 D-Wave 2를 구매하였으며, NASA에서는 우주 관련 연구, 구글에서는 인공지능 검색엔진 개발에 사용할 것이라고 밝혔다.

D-wave 2는 512-qubit 프로세서를 사용한다고 알려져 있는데, 이것이 양자 중첩 현상을 이용한 기존의 정의대로 만들어진 물건이라면 이는 이론적으로 2^512!! (약 2*10^212)번의 계산을 한번에 할수있는 속도이다. 더 놀라운 건 D-wave1이 나온 지 2년 만에 성능이 4제곱배(절대 4배가 아니다.)가 좋아 졌다는 것...이지만 문제는 이 컴퓨터는 양자 어닐링을 관측하는 방식으로 만들어졌을 뿐이지(양자 터널 현상은 이용한다.) 양자 중첩 현상을 이용한다는 기존 양자컴퓨터의 정의와는 전혀 다르다.

2014년 1월 16일(현지시각) 실시한 이 양자 어닐링 컴퓨터의 성능 테스트 결과가 기존 시스템을 이용한 고전적인 어닐링 연산과 크게 다르지 않은 것으로 알려졌다.

이번 성능 테스트에는 D-웨이브 투와 일반 PC를 이용했다. 비교를 진행한 결과 D-웨이브 투는 양자 어닐링의 장점을 증명하지 못했고 일반 컴퓨터와 크게 다르지 않은 결과를 냈다고 한다. 그럼에도 불구하고 구글은 나사와 D-웨이브 투를 구입하여 나사 연구 센터에 설치했다. 하지만 이 시스템이 실제로 사용된 건 구글글라스 눈꺼풀의 깜박임을 감지하는 알고리즘 작성 정도다. 많은 물리학자들이 해당 컴퓨터를 이런저런 기관에서 구입하는 것에 대해 의문을 표하고 있다.

스위스 취리히연방공대의 마티아스 트로이아 교수의 연구에서 상용화된 D-웨이브 시스템즈 사의 양자 어닐링 컴퓨터가 기존의 컴퓨터보다 몇몇 경우에는 100배 이상 연산이 느리다는 연구 결과가 나왔다. [링크]

확실한 것은, 해당 컴퓨터가 양자 어닐링을 관측하는 방식으로 만들어졌다는 것(이건 증명되었다.), 그리고 기존의 양자 컴퓨터와는 전혀 다른 물건이라는 것이다.

D-Wave 2X

1097 큐비트 모델이다. 위 모델처럼 제한된 특수목적용인지, 실제 성능은 어떤지는 아직 알려져 있지 않다.

2015년 말, 구글과 나사에서 특정 알고리즘[* 퀀텀 몬테 카를로 알고리즘이라고 알려져 있음. 정확한 정보는 추가바람.]에서 일반컴퓨터 보다 약 1억 배 더 빠르다고 주장하는 양자컴퓨터의 실물을 공개했으며, 2016년 9월에 에임스 연구소의 양자 인공지능 연구소에 설치가 완료될 예정이다.

작동 환경은 열, 전기장, 자기장, 진동을 철저히 격리하고 절대영도보다 0.015도 높은 온도를 유지한다. 이는 우주와 절대영도의 차이(약 3도)보다 180배 작다.

속도 테스트는 양자컴퓨터에 맞춰 주의깊게 고안된 '개념 증명용' 문제를 푸는 것으로 했으며 하이엔드 싱글코어 CPU를 비교군으로 했을 때 약 1억 배 더 빠르다는 것이 구글의 주장이다. 특정 유형의 문제를 다뤘기에 단순 일반화 할 수는 없지만 양자 컴퓨터의 잠재력을 입증하는 데 의미가 있는 것으로 풀이된다.

[대한 분석 자료] 논문을 이해할 능력이 있으며 시간도 많이 있는 위키러는 읽어보고 수정 및 추가바람.

2016년 9월, 구글은 50큐빗급의 양자컴퓨터를 내년 말까지 선보이겠다고 발표했다. [[5]] 다만, 나와봐야 알 듯...

D-Wave 2000Q

D-Wave 는 2017년 1월에 2000큐비트 모델을 출시하였다. [[6]]

판매가는 대략 1500만달러 수준이라고 한다.

개발현황

최근 일련의 물리학자들이 주축이 되어, 대규모 양자 컴퓨터 '건설' 계획을 추진하고 있다는 기사가 나왔다. [기사]

2017년 3월 7일, IBM에서 상용화 가능한 범용 양자컴퓨터 “IBM Q”를 몇 년 이내로 공개할 것이라고 발표하였다. [[7]]

2017년 5월 3일 중국과학원이 세계 최초의 [[8]]를 개발했다고 공식적으로 발표했다. 실제 성능에 대한 자료가 있는 위키러는 추가바람. 오보임. [[9]]

2017년 9월 11일 중국이 세계 최대의 [[10]]를 지어 그 연구 결과물을 적군 암호 해독 등 군사 분야에 응용할 계획을 하고 있다.

2017년 10월 23일 IBM에서 49큐비트 양자컴퓨터 시뮬레이션에 성공했다고 발표했다. 이제는 양자우위의 차원을 넘어섰다는 평가다. 다만, 유용하게끔 되기까지는 시간이 걸린다고 한다. [[11]] [[12]]

2018년 3월 초 구글에서 브리슬콘(Bristlecone)'이라 명명한 72 큐빗 칩을 선보였다. [[13]]

창작물

아직 상용화되지 않은, 엄청난 성능의 컴퓨터...라는 이미지가 있어, 각종 창작물에 등장하는 슈퍼컴퓨터로써 양자 컴퓨터가 제시되고 있다.

* 총몽시리즈의 양자컴퓨터
* 9S의 LAFI 시리즈
* 가사라키 - 24화 초반 미군의 도쿄 고와 그룹 본사 공격 브리핑에서 공격 목표로 언급된다. 냉각을 위해 영하 180도 이하의 극저온실에 위치해있다.
* 기동전사 건담 더블오베다
* 기동전사 건담 SEED 시리즈에서는 널리 보급되어있는 상태다. 일반적인 MS를 비롯한 시설의 컴퓨터도 모두 양자컴퓨터. 오히려 양자컴퓨터가 아닌 컴퓨터를 찾기 힘들다는 듯. 아스트레이의 하치는 양자 컴퓨터와는 다른 존재.[* 그렇기에 양자 컴퓨터 전용의 바이러스에 영향을 받지 않았다.]
* 나노리스트의 방공용 양자컴퓨터. 홍싸리나노를 조종하는데 필요한 연산을 보조하기 위해 쓰였다. 나노의 동작 제어 시스템의 처리 데이터가 워낙 방대해 두 대씩이나 동원해야 했다.
* 덴마의 양자 통신
* 소드 아트 온라인의 「STL」. 후술할 액셀월드의 뉴로링커의 전신이다.
* 어떤 마술의 금서목록트리 다이어그램[* 추정, 그리고 이쪽은 양자 역학을 씹어먹는 존재다.]
* 어떤 마술의 금서목록 신약 7권에 AIM확산역장을 이용한 양자컴퓨터가 등장한다.[* 신약 7권에 AIM 확산 역장을 이용한 양자 컴퓨터가 등장하므로, 확실한건 알수없다.]
* 제가페인의 양자서버(양자컴퓨터)
* 오리진의 합성지능 윈스턴이 양자컴퓨터에 본체를 두고있다. 이름은 E-WAVE 이다.
* 액셀 월드의 4세대 NERDLES.[* 내부에 양자컴퓨터가 들어있다고 한다.]
* 콜 오브 듀티: 블랙 옵스 2에 등장하는 셀레륨 장치. 에릭 브라이너의 말에 따르면 양자 얽힘을 이용했다고 한다.
* 톰 클렌시의 소설 넷포스 시리즈 세번째 작품인 나이트 무브에서 양자 컴퓨터가 등장해 세계 각지의 보안을 제집 드나들 듯이 돌아다니며 문제를 일으켰다.
* EDEN 프로퍼테일 연방이 관리하는 다섯 대의 스탠드 얼론형 양자컴퓨터. 개개의 이름은 나오지 않는다. 우주로부터 쏟아지는 감마선 폭우로 지구의 대기와 바다가 작살나자 이를 회복시키기 위해 한 과학자가 연구하던 나노머신 우라노스와 오케아노스가 방안으로 대두되는데, 실제로 사용하기 전에 양자컴퓨터로 지구 규모 시뮬레이션을 돌리는데 쓰인다. 나노머신을 개발한 과학자의 말로는 기상은 카오스계 이론이라 일반 컴퓨터로는 도저히 행성규모의 시뮬레이션을 할 수가 없었다고...
* SCP 재단 - ~~[[14]]~~[* 별칭이 '"양자" 컴퓨터'("Quantum" Computer)인데, 이게 양자를 이용해 연산을 한다는 게 아니라 양자역학마냥 켜보기 전까지 OS나 언어, 사양 등이 어떻게 될지 알 수가 없다는 의미이다.]
* 요르문간드 계획 - 하늘이 봉쇄된다
* 트랜센던스 - 윌의 정신이 업로드 된 양자프로세서를 가진 슈퍼컴퓨터 : 본래 핀이라는 양자컴퓨터의 프로세서를 빼와서 윌을 우선 컴퓨터에 업로드 시키는 것을 성공한 뒤, 후에 대규모 데이터 센터를 건설하여 내부에 엄청나게 많은 양자 프로세서가 장착된 슈퍼컴퓨터에 윌이 들어간다.