AWS 기술 블로그

양자 컴퓨팅이란 무엇인가? – Part 6: 양자 컴퓨터의 성능지표, 도전 사항, 양자 오류 제어

양자 컴퓨팅은 기존 컴퓨터와는 달리 큐비트(qubit)의 중첩, 얽힘, 간섭 등 양자역학의 원리를 활용해 혁신적인 계산 능력을 지닌 차세대 기술로 주목받고 있습니다. 1~5회에서는 양자 컴퓨터의 개념과 등장 배경, 큐비트의 동작 원리, 양자 회로와 QPU 등 기본 구조와 원리를 다뤘습니다.

시리즈 블로그 보기

이번 편에서는 양자 컴퓨터의 성능을 평가하는 주요 지표(큐비트 수, 에러율, 결맞음 시간, 확장성, 제어성, CLOPS 등)와 함께, 실제 양자 컴퓨팅이 직면한 오류 문제, 느린 클럭 속도, 데이터 로딩 병목, 연결성 한계 등 현실적 제약을 심층적으로 분석합니다. 또한 현재 양자 컴퓨터 발전의 최대 걸림돌인 양자 오류 제어에 관해서도 소개하도록 하겠습니다.

 양자 컴퓨터의 성능 지표

양자 컴퓨터 기술이 급속도로 발전함에 따라 그 성능을 정확히 평가하는 체계적인 지표의 필요성이 커지고 있습니다. 단순히 큐비트 수만으로는 양자 컴퓨터의 실제 성능을 판단하기 어렵기 때문에, 다음과 같이 여러 지표를 종합적으로 고려해야 합니다.

가장 기본적인 성능 지표는, 바로 큐비트 개수(규모, Scale)입니다. 이는 양자 컴퓨터가 동시에 처리할 수 있는 양자 정보의 양을 나타냅니다. 큐비트 수가 많을수록 더 크고 복잡한 문제를 다룰 수 있는 잠재력이 증가합니다. 하지만 단순히 큐비트의 개수만으로는 실질적인 연산 능력을 완전히 판단할 수 없습니다. 여전히 많은 사람들이 큐비트의 수에만 집중하지만, 실제로는 유용한 계산을 수행할 수 있는 실질적 큐비트 수(예: Algorithmic Qubit, Effective Qubit)가 중요한 평가 기준이기도 합니다. 따라서 큐비트의 수가 많다고 해서 반드시 높은 성능을 보장하지는 않으며, 최적의 성능을 내기 위해서는 큐비트 수와 품질 간 균형이 필요합니다.

에러율(Error Rate)은 양자 연산에서 발생하는 오류의 비율로, 알고리즘 실행의 정확도를 결정합니다. 초전도체 큐비트는 일반적으로 99.9% 이하, 이온트랩은 99.99% 이상, 중성원자는 최근 99.9%에 근접한 정확도를 보입니다. 에러율이 낮을수록 더 복잡한 알고리즘을 안정적으로 실행할 수 있습니다.

결맞음 시간(coherence time)은 큐비트가 양자 상태(중첩, 얽힘)를 유지할 수 있는 시간을 의미하며, 양자 컴퓨터의 실제 성능을 결정하는 핵심 지표입니다. 이는 T₁(이완 시간)과 T₂(위상 이완 시간)로 구분됩니다. T₁은 큐비트가 |1⟩ 상태에서 |0⟩ 상태로 에너지가 감쇠하는 데 걸리는 시간을, T₂는 중첩 상태에서 위상 정보를 유지하는 시간을 나타냅니다. T₂는 일반적으로 T₁보다 짧으며, 환경 노이즈에 민감합니다. 따라서, 결맞음 시간은 T₁과 T₂ 모두에 영향을 받으며, 실제로는 T₂가 더 짧아 결맞음 시간을 주로 대표합니다. 예를 들어, 최근 IQM은 초전도체 큐비트에서 약 1밀리초의 결맞음 시간을 달성했는데, 이는 초전도체 큐비트 기준으로 최상급의 성능을 의미합니다. 모든 양자 연산은 이 결맞음 시간내에 완료되어야 하기 때문에, 결맞음 시간이 길수록 더 복잡한 양자 알고리즘을 실행할 수 있는 시간이 늘어납니다.

확장성(Scalability)은 양자 비트의 개수를 늘릴 수 있는 능력을 의미합니다. 실용적인 양자 컴퓨터는 수백~수천 개 이상의 큐비트가 필요하므로, 현재 구현된 큐비트 수를 더 늘릴 수 있는 능력이 중요합니다. 중성원자 방식은 2D/3D 격자 배열이 가능해 확장성이 우수하지만, 초전도체는 배선 및 냉각 복잡성으로, 이온트랩은 1D 구조 한계로 인해 확장에 제약이 있습니다.

구분 큐비트 개수(Scale) 확장성(Scalability)
정의 양자 컴퓨터가 보유한 물리적 큐비트의 현재 수치 미래에 큐비트 수를 늘릴 수 있는 능력
평가 대상 “얼마나 많은가?” “얼마나 더 늘릴 수 있는가?”
의존 요소 제조 기술, 칩 설계 등 아키텍처 유연성, 오류 제어 기술

<표 1. 큐비트 개수와 확장성의 차이>

제어성(Controllability)이란, 큐비트를 원하는 시점에 원하는 양자 상태(예: |0⟩, |1⟩ 또는 그 중첩 상태)로 정확하게 변환하거나, 필요한 양자 게이트(연산)를 오차 없이 수행할 수 있는 능력을 의미합니다. 이는 실험적으로 시스템이 의도한 확률분포 또는 양자 연산 결과를 정확히 만들어낼 수 있음을 뜻합니다. 따라서 양자 알고리즘을 신뢰성 있게 실행하기 위해서는 큐비트 상태와 게이트의 정밀한 제어가 필수적입니다.

CLOPS(Circuit Layer Operations Per Second)는 초당 실행할 수 있는 회로 레이어의 수를 나타내는 속도 지표입니다. 두 개 이상의 게이트가 동일한 큐비트에 작용하지 않는 경우, 이 게이트들은 동시에(병렬로) 실행될 수 있으며 이를 하나의 레이어로 간주합니다. 회로 레이어는 게이트 속도, 큐비트 리셋 시간, 결과 측정 등을 포함한 종합적인 속도 성능을 반영합니다. CLOPS는 실제로 얼마나 빠르게 유용한 양자 연산을 반복해서 처리할 수 있는지를 보여주므로, 실용적 성능을 평가하는 데 매우 중요한 지표로 사용됩니다.

양자 컴퓨터의 진정한 성능을 평가하기 위해서는 이러한 모든 지표를 종합적으로 고려해야 합니다. 특히 결맞음 시간과 게이트 충실도(에러율)는 양자 오류 정정 및 실용적인 양자 우위(Quantum Advantage) 달성에 핵심적인 역할을 합니다. 현재 많은 연구자들이 이러한 지표들을 향상시키는 데 초점을 맞추고 있으며, 이는 양자 컴퓨팅이 실제 문제 해결에 활용되기 위한 중요한 과제입니다.

 오늘날 양자 컴퓨터가 맞이한 도전 사항

양자 컴퓨터는 지난 수십 년간 컴퓨팅 분야에서 가장 혁명적인 기술로 주목받아 왔습니다. 고전 컴퓨터가 이진 비트를 사용하여 0과 1의 상태만을 표현하는 것과 달리, 양자 컴퓨터는 큐비트를 통해 0과 1의 중첩 상태를 구현함으로써 특정 연산에서 기하급수적인 성능 향상을 보장할 수 있습니다. 그러나 이러한 잠재력에도 불구하고, 오늘날의 양자 컴퓨터는 여전히 다양한 한계에 직면해 있습니다. 양자 컴퓨터에 대한 과도한 낙관론은 현실적인 제약 조건들을 간과하는 경향이 있습니다. 이와 관련하여 현재 양자 컴퓨터가 직면해 있는 여러 제약 사항을 소개하고자 합니다.

큐비트의 품질과 오류 문제

  • 양자 컴퓨터가 직면한 가장 근본적인 한계 중 하나는 큐비트의 품질과 오류 관리 문제입니다. 현재 양자 컴퓨터 연구와 기대는 사실상 오류가 없는 큐비트를 전제로 하지만, 실제로는 완전히 오류 없는 큐비트 구현이 불가능한 상황입니다. 오늘날 양자 컴퓨터는 외부 환경과의 상호작용으로 인한 다양한 오류가 내재된 상태라고 볼 수 있습니다. 특히 열, 전자기파, 물리적 진동 등 외부 간섭에 매우 민감하여 양자 상태가 손상되고, 이에 따라 정보 소실 및 계산 오류가 발생합니다.
  • 고전적인 컴퓨터와 비교할 때, 오류율 차이는 매우 큽니다. 고전 컴퓨터는 약 10¹⁸회 연산당 1회의 오류가 발생하는 반면, 현재 양자 컴퓨터는 약 10³회 연산당 1회의 오류가 발생합니다. 즉, 양자 컴퓨터는 고전 컴퓨터보다 약 10¹⁵배 높은 오류율을 가지고 있어, 복잡한 양자 알고리즘 실행에 큰 제한 요인으로 작용합니다. 많은 전문가들은 완전한 양자 오류 정정을 위한 실용적 시스템을 구현하려면 앞으로 5~10년 이상의 추가 연구와 개발이 필요하다고 전망합니다.
  • 양자 오류 정정 기술은 양자 컴퓨터 발전의 핵심 과제로, 여러 개의 물리적 큐비트를 조합해 내구력이 강한 논리적 큐비트를 만들어 오류를 탐지하고 수정하는 방식을 연구하고 있습니다. 이 기술이 성공적으로 구현되어야만 양자 컴퓨터가 상용화되어 실제 문제 해결에 효과적으로 사용될 수 있습니다. 이와 관련해서는 블로그 후반부에 더 자세히 설명하도록 하겠습니다.

양자 연구의 낮은 ROI

  • 양자 컴퓨팅에 대한 기업들의 투자는 최근 단기적인 투자수익률(ROI)에 더욱 민감하게 반응하고 있습니다. 이는 양자 컴퓨터가 아직 실질적인 문제를 충분히 해결하지 못하고 있기 때문입니다. 실제로 양자 연구는 매우 낮은 ROI를 보이고 있어, 업계에서는 ‘양자 겨울’에 대한 우려까지 제기되고 있습니다.
  • 현재 양자 컴퓨팅은 고전적 컴퓨팅에 비해 시간당 비용이 약 10만 배나 높습니다. 양자 컴퓨터를 사용하는 데 시간당 1,000~5,000달러가 드는 반면, 고전적 컴퓨터는 시간당 약 0.05달러의 비용만 필요하다고 합니다. 이러한 높은 비용 차이는 양자 컴퓨팅의 상용화와 대중적 도입에 큰 장벽으로 작용하고 있습니다.
  • 이런 경제적 여건에서 기업들은 빠른 ROI를 기대할 수 있는 양자 컴퓨팅 사용 사례에 집중하고 있습니다. 대표적으로 금융 모델링 및 포트폴리오 최적화, 공급망 및 물류 최적화, 신약 개발 가속화 등이 이에 해당합니다. 기업들은 양자 컴퓨팅 투자가 실질적인 비즈니스 가치를 창출할 수 있는 특정 영역에 자원을 집중하고 있습니다.
  • 이처럼 단기 ROI 중심의 접근 방식은 양자 컴퓨팅의 발전 방향에 영향을 미치고 있습니다. 단기적으로 상업적 가치를 창출할 수 있는 분야에 연구와 개발이 집중될 가능성이 높아진 반면, 이러한 경향은 장기적인 혁신적 연구를 제한할 수 있는 위험도 내포하고 있습니다.

상대적으로 느린 클럭 속도

  • 양자 컴퓨팅 기술의 성능은 구현 방식에 따라 크게 달라집니다. 중성원자(Rydberg)시스템은 약 170Hz의 클럭 속도를 보이는 반면, 초전도 큐비트 기술은 최근 1.4MHz의 클럭 속도를 달성했습니다. 이는 초전도 방식이 중성원자 방식 대비 약 8,200배 빠른 연산 속도를 의미합니다. 따라서 이런 큰 속도 차이(최대 약 8,200배)는 특정 양자 컴퓨팅 기술의 실용성에 큰 영향을 미칩니다.
  • 클럭 속도의 중요성은 2006년 발표된 연구에서 잘 드러납니다. 쇼어 알고리즘의 실행 시간은 클럭 속도에 반비례합니다. 예를 들어, 576 비트 정수를 인수 분해할 때 4kHz 클럭 속도에서는 약 1개월이 소요되지만, 1MHz 클럭 속도에서는 단 3시간으로 단축됩니다. 이는 동일한 양자 회로에서 클럭 속도가 250배 증가하면 실행 시간이 240분의 1로 감소한다는 것을 보여줍니다.
  • 그러나 양자 컴퓨터의 클럭 속도는 여전히 고전 컴퓨터에 비해 현저히 낮습니다. 2025년 현재 고전 CPU는 4~5GHz(40~50억 Hz)의 클럭 속도를 가지는 반면, 가장 빠른 초전도 양자 프로세서도 1.4MHz(140만 Hz)에 불과합니다. 이는 고전 컴퓨터 대비 약 3,500배 느린 수치입니다. 중성원자 시스템의 경우 170Hz로, 고전 컴퓨터 대비 2,900만 배 이상 뒤처집니다. 따라서 단일 연산(게이트 연산) 속도는 고전 컴퓨터가 현재의 양자 컴퓨터보다 훨씬 빠릅니다.
  • 단, 양자 우위를 제공하는 알고리즘이 발전함에 따라 클럭 속도의 제한이 덜 중요해질 것으로 전망됩니다. 그 이유는 양자 컴퓨터의 강점은 클럭 속도가 아닌 양자 병렬성에 있으며, 이를 통해 특정 문제에서 고전적 컴퓨터보다 훨씬 빠른 연산이 가능하기 때문입니다.

데이터 저장 및 처리의 어려움

  • 양자 컴퓨팅은 특정 계산 문제에서 고전 컴퓨터보다 혁신적인 속도 향상을 제공할 잠재력을 가지고 있지만, 실제 응용에서는 여러 가지 근본적인 제약이 존재합니다. 그중에서도 데이터 로딩 병목 현상은 양자 컴퓨팅의 실용적 활용을 크게 제한하는 핵심 문제로 부각되고 있습니다. 양자 컴퓨터와 고전 컴퓨터 간의 입출력 대역폭에는 근본적인 차이가 있으며, 현재 양자 컴퓨터의 데이터 입출력 속도는 기존 고전 컴퓨터 칩보다 약 10,000배 느린 것으로 추정됩니다. 이러한 속도 차이는 데이터베이스 검색과 같이 고전 데이터에 접근해야 하는 문제나 대규모 데이터를 다루는 작업에서 양자 컴퓨터의 이점을 크게 감소시킵니다. 이에 따라 양자 컴퓨터는 “빅 데이터” 문제보다는 작은 데이터에 대한 “빅 컴퓨팅” 문제에 더 적합하다고 볼 수 있습니다.
  • 고전 데이터를 양자 상태로 변환하는 과정은 양자 머신러닝과 같은 많은 양자 알고리즘의 필수적인 단계입니다. 그러나 이 양자 상태 준비 과정은 비 구조화된 데이터의 경우 지수적인 복잡성을 가지며, 이러한 로딩 과정의 비효율성이 알고리즘 적용의 주요 병목이 되고 있습니다. 특히 양자 상태 준비는 많은 양자 게이트 연산을 필요로 하며, 이는 전체 계산 복잡성을 크게 증가시킵니다. 최근 연구에서는 이러한 문제를 해결하기 위해 다양한 접근법이 시도되고 있습니다. 예를 들어, 구조화된 행렬의 경우 블록 인코딩(block encoding) 기법을 통해 데이터 로딩 비용을 줄이는 방법이 제안되었습니다. 또한 저순위 양자 상태 준비 방법(양자 회로의 깊이를 줄이기 위해 계산 복잡성의 일부를 고전 컴퓨터로 오프로딩하는 접근법)을 통해 회로 깊이를 줄이고 계산 복잡성을 고전 컴퓨터로 오프로딩하는 알고리즘도 개발되고 있습니다.
  • 양자 컴퓨터의 저장 시스템은 양자 결맞음 손실로 인해 장기 저장에 부적합합니다. 양자 비트는 환경적 간섭에 매우 취약하여 마이크로초나 밀리초 내에 양자 상태를 잃을 수 있습니다. 이러한 짧은 결맞음 시간은 실행할 수 있는 알고리즘의 복잡성을 제한합니다. 또한, 노클로닝 정리(no-cloning theorem)는 임의의 알려지지 않은 양자 상태의 정확한 독립적 복제본을 만드는 것이 불가능함을 명시합니다. 이는 고전 컴퓨팅에서 비트를 쉽게 복사할 수 있는 것과 대조되며, 양자 오류 정정이나 통신 프로토콜 설계에 중요한 영향을 미칩니다.
  • 2025년 현재, 양자 머신러닝 분야에서도 데이터 로딩 병목 현상은 여전히 주요 도전 과제로 남아 있습니다. 고전 데이터를 양자 상태로 효율적으로 인코딩하는 것은 여전히 명확한 해결책이 존재하지 않는 문제이며, 이는 양자 머신러닝의 실용적 구현을 제한하는 요소 중 하나입니다.

연결성의 한계

  • 양자 컴퓨터에서 연결성이란, 멀리 떨어져 있는 큐비트들 사이에 직접적으로 게이트 연산을 적용할 수 있는 능력을 의미합니다. 이 연결성은 양자 알고리즘의 속도와 효율성을 극대화하는 데 매우 중요한 역할을 하며, 특히 효율적인 오류 정정 코드를 구현하는 데 필수적입니다.
  • 기술적으로, 이온트랩 방식이나 중성원자 기반의 양자 컴퓨터는 높은 내재적 연결성을 가지고 있어 큐비트 간 상호작용이 비교적 자유롭게 이루어집니다. 반면, 초전도 기반의 시스템은 물리적으로 가까운 이웃 큐비트 사이에서만 연산이 가능해 연결성이 제한적입니다. 이런 제한된 연결성은 실제로 양자 알고리즘을 구현할 때 계산 오버헤드를 발생시키는 원인이 됩니다.
  • 양자 알고리즘은 논리적으로 큐비트 간의 다양한 상호작용을 필요로 하지만, 큐비트 배열의 물리적 구조가 이를 충분히 지원하지 못하는 경우가 많습니다. 예를 들어, 쇼어 알고리즘과 같은 복잡한 알고리즘은 멀리 떨어진 큐비트들 사이의 얽힘(Entanglement)과 상호작용이 필수적입니다. 또한, 오류 정정 코드 역시 서로 떨어진 큐비트의 연결을 필요로 하는데, 연결성이 제한되면 추가적인 스왑 연산 등으로 인해 연산량이 늘어나고 전체 계산 효율이 떨어집니다.
  • 이처럼 양자 컴퓨터의 연결성 한계는 실제 양자 알고리즘의 구현과 성능에 직접적인 영향을 미치며, 앞으로 실용적인 양자 컴퓨터를 개발하기 위해서는 연결성 문제를 해결하거나, 제한된 연결성 조건에서도 효율적으로 동작할 수 있는 알고리즘과 아키텍처가 필요합니다.

양자 컴퓨터 상용화의 최대 과제, 양자 오류 제어

앞서 큐비트의 오류와 관련하여 잠깐 언급하였습니다만, 양자 컴퓨팅은 기존 컴퓨팅 시스템과 달리 오류에 매우 취약하며 이를 해결하기 위한 다양한 기술이 연구되고 있습니다.

현재 최첨단 양자 기술에서도 1,000회의 양자 연산 중 1회의 오류가 발생하는데, 이는 여전히 높은 오류율을 의미합니다. 비록 지난 15년 동안 기술이 백 배 이상 발전했음에도 불구하고, 여전히 개선이 필요한 수준입니다. 간혹 103의 오류 발생이 매우 낮은 것으로 오해할 수 있으나, 기본적으로 양자 회로는 때로는 수만 또는 수십만개 이상의 게이트를 포함하기 때문에, 그림1과 같이 여러 단계의 게이트 연산을 수행하게 되면, 이후에는 양자 연산의 결과를 신뢰할 수 없게 됩니다.

<그림 1. 높은 오류율로 인한 양자 연산 결과의 부정확성>

또한 큐비트 오류는 고전 비트에 비해 훨씬 민감합니다. 그림2에서 볼 수 있듯이, 큐비트에서는 비트 플립(Bit flip) 외에도 위상 플립(Phase flip)까지 고려해야 합니다. 즉, 큐비트의 위상이 변경되면 완전히 다른 상태로 변경됩니다.

<그림 2. 큐비트의 에러 종류>

일반적인 컴퓨터 시스템에서의 오류 정정 방식과 양자 컴퓨터의 오류 정정 방식에는 차이가 있습니다. 일반 PC의 DIMM(Dual Inline Memory Module)은 64비트이며, 전통적인 시스템인 서버 시스템의 DIMM의 경우, 서버 메모리의 비트 오류 발생시 정정을 위해 8비트를 추가하여 72비트를 구성합니다. 이는 8/72, 즉 약 11%의 redundancy(중복성)가 요구됨을 의미합니다. 그러나 이러한 상대적인 redundancy는 양자 컴퓨터에서는 훨씬 높아집니다.

<그림 3. 현재의 양자 컴퓨터 오류율, AWS re:Invent 2023 SVP Peter DeSantis 키노트 참고>

양자 오류 정정을 위해서는 여러 물리적 큐비트를 사용하여 하나의 논리적 큐비트를 구성해야 합니다. 이는 오류 정정을 위한 중복성을 제공하지만, 많은 물리적 큐비트가 필요합니다. 예를 들어, 그림4에서 언급한 페모코(Femoco) 화학 시뮬레이션을 수행하기 위해서는 약 백 만개의 물리적 큐비트가 필요하며, 고온 초전도체 시뮬레이션에는 약 삼십만개, 그리고 2048 RSA 암호 해독에는 약 이천만개의 개의 큐비트가 필요합니다. 녹색으로 표기된 논리적 큐비트 개수에 비해 엄청나게 많은 큐비트가 필요한 것을 확인할 수 있습니다. 그야말로 현재의 기술로는 배보다 배꼽이 더 큰 상황이라고 볼 수 있습니다.

<그림 4. 특정 양자 시뮬레이션을 수행하기 위한 물리 큐비트와 논리 큐비트의 개수>

따라서 최근에는 오류 정정에 필요한 큐비트 수를 줄이기 위한 연구도 진행되고 있습니다. 예를 들어, ‘고양이 큐비트(cat qubit)’를 사용하여 오류 정정 효율을 높이는 방법이 연구되고 있습니다. 이는 큐비트에서 발생하는 두 가지 오류 중 하나를 억제하는 방식으로 작동합니다. 예를 들어, 2025년 2월에 공개된 AWS의 오셀롯(Ocelot) 양자 하드웨어는 고양이 큐비트 5개만으로 수십 개의 큐비트를 정정할 수 있는 방법을 고안했습니다.

양자 오류를 제어하는 방법

양자 컴퓨팅에서 오류를 처리하는 세 가지 주요 방법은 양자 오류 정정(Quantum Error Correction, QEC), 양자 오류 억제(Quantum Error Suppression, QES), 그리고 양자 오류 완화(Quantum Error Mitigation, QEM)입니다. 이 세 가지 방법은 양자 컴퓨터의 신뢰성과 정확도를 향상시키는 데 중요한 역할을 합니다.

양자 오류 정정(QEC)은 오류를 적극적으로 감지하고 수정하여 논리적 큐비트의 정보를 보호하는 방법입니다. 이 기술은 앞서 언급한 것처럼, 여러 물리적 큐비트를 사용하여 하나의 논리적 큐비트를 인코딩하는 방식으로 작동합니다. 논리적 큐비트는 에러 정정이 가능하도록 설계되어 있어, 물리적 큐비트에 오류가 발생하더라도 전체 정보는 보존됩니다. 일반적으로 논리적 큐비트 1개에 물리적 큐비트 수십에서 수천 개가 필요하며, 오류 신드롬 측정을 통해 오류를 감지하고 정정합니다. 양자 오류 정정은 결함 허용 양자 컴퓨팅(FTQC)을 위한 기반 기술로, 오류나 결함이 발생해도 올바르게 계속 작동할 수 있는 양자 컴퓨터를 구현할 수 있게 합니다. 하지만 하드웨어 요구사항이 높으며, 높은 게이트 충실도(일반적으로 99.9% 이상)와 많은 물리적 큐비트가 필요합니다. 양자 오류 정정 코드로는 3 큐비트 중복 코드, 쇼어 코드(Shor Code), 스테인 코드(Steane Code), 표면 코드(Surface Code) 등이 있습니다. 이 중 표면 코드는 현재 구글, IBM 등에서 가장 많이 연구되고 있는 방식입니다.

양자 오류 억제(QES)는 양자 오류가 발생할 가능성 자체를 줄이는 기술입니다. 하드웨어 수준에서 오류 발생 자체를 예방하는 데 중점을 둡니다. 추가 큐비트가 거의 또는 전혀 필요 없으며, 모든 개발 단계의 양자 컴퓨터에 적용 가능합니다. 대표적인 기술로는 동역학적 디커플링(Dynamical Decoupling)이 있습니다. 최근 양자 컴퓨팅 연구 트렌드는 주로 양자 오류 정정과 오류 억제에 집중하고 있으며, 이 두 분야는 양자 컴퓨팅의 신뢰성과 실용성을 높이는 데 필수적입니다. QES는 오류 처리의 첫 단계로 볼 수 있으나, 더 복잡한 알고리즘과 대규모 양자 시스템에서는 QEC와 같은 더 강력한 오류 처리 방법이 필요합니다. 앞서 언급한 AWS의 양자 하드웨어인 오셀롯이 비트 플립 에러를 본질적으로 억제하도록 설계되어 있기 때문에 양자 오류 억제의 특성을 사용한다고 할 수 있습니다.

양자 오류 완화(QEM)는 추가 큐비트 없이 오류의 영향을 줄이거나 상쇄하여 결과의 정확도를 향상시키는 방법입니다. NISQ(Noisy Intermediate-Scale Quantum) 시대의 양자 컴퓨터에 적합하며, 오류를 완전히 제거하지는 못하지만 결과의 신뢰성을 향상시키는 데 중점을 둡니다. 후처리 기법을 사용하며, 양자 회로를 여러 번 실행하고 결과를 후처리하여 오류의 영향을 줄입니다. 추가 물리적 큐비트가 거의 또는 전혀 필요 없어 계산 비용이 상대적으로 낮습니다. 완전한 오류 제거가 아닌 오류 영향 감소에 초점을 맞추며, 현재의 제한된 큐비트 수를 가진 양자 컴퓨터에서 특히 유용합니다.

이 세 가지 방법은 각각 다른 상황과 하드웨어 조건에서 유용하며, 실제로는 이러한 방법들을 조합하여 사용하는 경우가 많습니다. 예를 들어, 하드웨어 수준에서 QES를 적용하여 오류 발생을 줄이고, QEM을 통해 남아있는 오류의 영향을 완화하며, 장기적으로는 QEC를 구현하여 결함 허용 양자 컴퓨팅을 실현하는 방식입니다. 현재의 양자 컴퓨팅 기술 수준에서는 QES와 QEM이 더 실용적인 선택이지만, 양자 컴퓨팅의 궁극적인 목표인 대규모 결함 허용 양자 컴퓨터를 위해서는 QEC의 발전이 필수적입니다. 표2에서 3가지 방식에 대해 비교 정리하였습니다.

항목 QEC QES QEM
목적 오류를 감지하고 정정하여 논리적 큐비트의 정보 보호 오류가 발생할 가능성 자체를 줄이는 것이 목적 오류의 영향을 줄이거나 상쇄하여 결과의 정확도 향상
방법 다수의 물리적 큐비트를 사용하여 하나의 논리적 큐비트 구성 하드웨어 수준에서 오류 발생 자체 예방 후처리 기법을 사용하여 오류의 영향 감소
큐비트 요구
사항
한 개의 논리적 큐비트에 물리적 큐비트 최대 수 천개 필요 추가 큐비트 불필요 추가 큐비트가 거의 또는 전혀 필요 없음
적용 단계 결함 허용 양자 컴퓨터 모든 개발 단계의 양자 컴퓨터에 적용 가능 NISQ 시대의 양자 컴퓨터에 적합
효과 결함 허용 양자 컴퓨팅을 위한 기반 기술 오류 처리의 첫 단계로 볼 수 있음 현재의 제한된 큐비트 수를 가진 양자 컴퓨터에서 특히 유용

<표 2. 양자 오류 제어 기법 비교>

 맺음말

양자 컴퓨터는 컴퓨팅의 미래를 재정의할 잠재력을 가지고 있지만, 현재는 다양한 기술적, 물리적 한계에 직면해 있습니다. 큐비트의 낮은 품질과 높은 오류율, 짧은 결맞음 시간, 느린 클럭 속도, 제한된 연결성, 데이터 로딩 병목 현상, 특수한 응용 영역 제한 등은 양자 컴퓨터가 광범위한 실용적 응용에 도달하기 위해 극복해야 할 주요 장애물입니다.

그러나 이러한 한계에도 불구하고, 양자 컴퓨팅 기술은 꾸준히 발전하고 있으며, 향후 10년 이상의 지속적인 연구와 혁신을 통해 이러한 제약의 상당 부분을 극복할 수 있을 것으로 기대됩니다. 양자 컴퓨터가 완전한 오류 정정 능력을 갖추고 실용적인 규모로 확장될 때, 암호학, 재료 과학, 약물 발견, 최적화 문제 등 다양한 분야에서 혁명적인 변화를 가져올 것입니다.

현재의 한계를 인식하고 이를 체계적으로 해결해 나가는 과정은 양자 컴퓨팅이 단순한 과학적 호기심을 넘어 인류의 계산 능력을 근본적으로 확장하는 실용적인 도구로 발전하는 데 필수적인 단계입니다. 따라서, 양자 컴퓨터의 한계는 극복해야 할 도전과제이자, 동시에 미래 연구와 혁신을 위한 기회로 볼 수 있습니다.

다음 블로그는 이 시리즈의 마지막으로, 고전 컴퓨터와 양자 컴퓨터를 함께 사용하는 하이브리드 접근법 및 양자 연산이 구현되는 일련의 과정에 대해 상세히 소개할 예정입니다.

Sangman Cho

Sangman Cho

조상만 Solutions Architect는 AWS 입사 이후, Automotive 및 Manufacturing 고객의 클라우드 기반의 디지털 전환 업무를 지원하였으며, 현재는 AWS 코리아 전체의 고성능 컴퓨팅(HPC)과 양자 컴퓨팅 등 계산 과학 영역의 디지털 전환 업무를 지원하고 있습니다.