출처: 제핀 매크로
지난 12월 10일, 구글은 최신 양자 칩인 윌로우를 발표하며 전 세계 기술 커뮤니티를 열광시켰고 머스크조차 "와우!"라고 외쳤습니다. "!
윌로우 칩의 강력한 성능은 무엇일까요? 대량 생산까지는 얼마나 남았나요?
1. Google의 최신 양자 칩인 Willow는 컴퓨팅 성능과 오류 수정에서 획기적인 발전을 이루었습니다
현재 가장 빠른 슈퍼컴퓨터는 "랜덤 회로 샘플링"이라는 벤치마크에서 새롭고 더 효율적이며 더 안정적인 방식으로 사람들과 통신할 수 있는 방법을 만들 수 있었습니다.
Willow는 세계 최초로 이 작업을 수행할 수 있는 컴퓨터이며, 동시에 세계 최초로 이를 수행할 수 있는 컴퓨터입니다.
퀀텀 컴퓨팅은 계산 속도를 획기적으로 높이고 특정 작업에서 기존 컴퓨터의 성능을 뛰어넘을 수 있는 잠재력을 가지고 있으며, 이를 "양자 우월성"이라고 합니다. 구글은 이미 2019년에 54큐비트 양자 컴퓨터인 시카모어를 사용하여 기존 아키텍처 컴퓨터가 할 수 없었던 작업을 수행한 결과를 Nature에 발표하여 이 사실을 검증한 바 있습니다. 세계 최고의 슈퍼컴퓨터로 계산하는 데 1만 년이 걸리는 특정 실험에서 시카모어는 3분 20초밖에 걸리지 않았습니다. 구글의 CEO인 순다르 피차이는 연구원들이 기다려온 '헬로 월드'이며, 지금까지 양자 컴퓨팅의 실용화에서 가장 중요한 이정표 중 하나라고 말했습니다.
윌로우의 출시는 양자 컴퓨팅의 또 다른 랜드마크입니다.
이미지 src="https://img.jinse.cn/7332510_image3.png">
그러나 윌로우의 가장 주목할 만한 혁신은 빠른 속도가 아닙니다.
Willow의 가장 큰 강점은 오류를 수정하는 능력입니다.
과거에는 양자 상태의 취약성으로 인해 양자 칩은 데이터 처리 중 환경 교란으로 인해 비결합이 발생해 양자 비트의 상태에 오류가 발생하기 쉬웠습니다. 따라서 양자 컴퓨터는 '양자 우월성'에도 불구하고 환경의 영향을 받기 쉬우며 오류가 발생하기 쉽습니다. 일반적으로 양자 비트가 많을수록 더 많은 오류가 발생합니다.
따라서 '양자 오류 수정'이 핵심 기술이 되었고, 양자 칩에는 특별한 양자 오류 수정 기술이 필요하며, 이는 이 분야의 중요한 과제이기도 하며 한때 양자 컴퓨팅의 실제 적용과 발전에 심각한 제약을 주기도 했습니다.
윌로우 칩은 거의 30년 동안 연구자들을 괴롭혀온 양자 오류 수정 문제를 성공적으로 해결하여 오류율을 기하급수적으로 줄였습니다. 구글의 연구에 따르면 윌로우에 사용되는 양자 비트가 많을수록 시스템의 오류율이 낮아집니다.
3×3 배열에서 5×5, 7×7 배열로 확장하는 등 양자 비트의 수를 늘렸을 때, 구글의 윌로우 칩 실험에서 코딩 오류율은 확장할 때마다 2.14배씩 감소했으며, 오류율은 점점 더 빠르게 떨어졌습니다.
2. 양자 컴퓨팅이란 무엇인가요? 왜 그렇게 강력한가요?
1935년 오스트리아의 물리학자 에르빈 슈뢰딩거는 방사성 물질이 담긴 상자에 고양이를 넣으면 방사성 물질이 부패하여 유독 가스를 방출하여 고양이를 죽일 확률이 50%, 방사성 물질이 부패하지 않고 고양이가 살아남을 확률이 50%라는 위대한 사고 실험을 생각해 냈습니다. 상자를 열기 전까지는 고양이가 살았는지 죽었는지 아무도 알 수 없으며, "삶과 죽음이 중첩된 상태"라고 밖에 설명할 수 없습니다.
슈뢰딩거의 고양이처럼 양자 세계는 해결되지 않은 중첩 상태에 있으며, 상응하는 새로운 계산 모델은 고양이가 중첩 상태에 있는 계산 모델입니다. 새로운 컴퓨팅 이론에 해당하는 것은 "양자 컴퓨팅"이며, 하드웨어 계층은 양자 칩, 양자 컴퓨터에서 나타납니다.
양자 컴퓨팅에는 두 가지 장점이 있습니다.
첫째, 강력한 데이터 저장 용량. 클래식 컴퓨팅은 비트를 기본 단위로 사용하는 반면, 양자 컴퓨팅은 양자 비트를 기본 단위로 사용합니다.
클래식 컴퓨팅에서 비트의 상태는 0 또는 1로 결정론적이지만, 양자 비트는 0과 1의 중첩 상태, 즉 0과 1을 동시에 저장할 수 있습니다.
일반 칩은 n개의 비트로 n개의 데이터를 동시에 저장할 수 있지만, 양자 비트가 있는 칩은 2^n개의 데이터를 동시에 저장할 수 있게 되는 것이죠.
둘째, 특정 문제에 대한 강력한 병렬 컴퓨팅을 보여줍니다.
기존 컴퓨터는 연산할 때마다 하나의 값만 다른 값으로 변환할 수 있는 직렬 컴퓨터로, 순차적으로 연산을 수행해야 합니다. 반면 양자 컴퓨터는 한 번의 연산으로 2^n개의 데이터를 새로운 2^n개의 데이터로 동시에 변환할 수 있습니다.
3. 향후 양자 칩이 GPU를 대체하여 AI 개발을 주도할 수 있을까요?
인공지능(AI) 기술과 다양한 애플리케이션이 지난 몇 년 동안 빠르게 발전하면서 컴퓨팅 파워에 대한 수요도 기하급수적으로 증가했습니다.
이론적으로 양자 컴퓨팅의 병렬 처리 능력은 복잡한 AI 알고리즘을 처리하는 데 자연스러운 이점을 제공하고 모델 학습의 속도와 정확성을 크게 향상시킬 수 있으며, 윌로우 칩의 등장은 AI의 발전을 위한 강력한 산술적 선구자가 될 수 있습니다.
사실, 현재 AI에 널리 사용되고 있는 GPU는 원래 그래픽 처리 속도를 높이기 위해 설계되었습니다. 예를 들어 게임의 3D 장면 렌더링, 애니메이션 제작의 모델링 및 특수 효과 처리, 영화 및 TV 제작의 비디오 시각 효과 등이 이에 해당합니다. 그러나 강력한 컴퓨팅 성능으로 인해 GPU는 나중에야 과학 컴퓨팅 및 인공 지능 분야, 특히 대규모 데이터 세트와 고도의 병렬 처리로 계산 작업을 처리하는 데 탁월한 딥 러닝의 신경망 훈련 및 추론 단계에서 널리 사용되었습니다.
이러한 관점에서 볼 때, 양자 칩은 향후에도 점차 발전을 거듭하여 연산 한계를 극복하고 다양한 유형의 AI 머신러닝 알고리즘의 학습 과정을 가속화할 것입니다. 퀀텀 칩은 현재 주로 암호화 암호화 알고리즘 해독(예: RSA 알고리즘 기반 기존 암호화에 대한 잠재적 위협), 양자 시스템 시뮬레이션(분자, 물질 및 기타 양자 수준의 물리적, 화학적 특성 시뮬레이션), 복잡한 최적화 문제 해결(예: 물류 계획, 자원 할당 및 기타 복잡한 문제 해결) 등 계산 복잡도가 매우 높은 일부 특정 분야에서 주로 사용되고 있습니다. (물류 계획, 자원 할당 및 기타 복잡한 조합 최적화 문제 등) 등입니다. 이러한 분야에서는 양자 컴퓨팅의 장점을 충분히 활용할 수 있으며, 기존 컴퓨터가 허용 가능한 시간 내에 완료할 수 없는 작업을 해결할 수 있습니다.
퀀텀 칩의 컴퓨팅 성능 향상은 주로 양자 비트의 수와 품질이 증가하는 것과 관련이 있습니다. 미래에는 양자 비트의 수가 증가함에 따라 양자 컴퓨터의 컴퓨팅 성능이 기하급수적으로 증가합니다. 양자 비트가 추가될 때마다 가능한 상태 조합의 수가 두 배로 증가합니다. 예를 들어, 2개의 양자 비트는 4개의 상태 조합을, 3개의 양자 비트는 8개의 상태 조합을 가질 수 있습니다. 또한 양자 비트의 품질(예: 일관성 시간, 충실도 등)은 계산 능력에 큰 영향을 미치며, 고품질 양자 비트는 양자 상태를 더 효율적으로 유지할 수 있어 더 정확하고 복잡한 계산을 수행할 수 있습니다.
그러나 단기적으로 양자 칩은 GPU를 흔들기 어려울 것입니다. 양자 칩은 GPU에 비해 더 많은 연산 능력을 가지고 있으며 이론적으로 대체할 수 있습니다. 그러나 GPU 해자, 컴퓨팅 성능은 한 가지 측면일 뿐이며, 더 중요한 것은 프로그래밍 가능한 아키텍처와 개발자의 생태학적 이점, 제조 공정 및 산업 성숙도입니다.
GPU 프로그래머블 아키텍처와 개발자 생태계가 핵심 장벽입니다. NVIDIA는 10년 이상 GPU를 통해 이러한 "AI 컴퓨팅 혁명"의 토대를 마련해 왔습니다.
CUDA(컴퓨팅 통합 장치 아키텍처)는 2006년 NVIDIA가 개발한 최초의 GPU 프로그래밍 아키텍처 플랫폼으로, 알고리즘 엔지니어가 다음을 수행할 수 있는 GPU 개발자 에코시스템을 구축하는 데 그 가치가 있습니다. 알고리즘 엔지니어가 필요에 따라 GPU의 기능을 탐색하여 그래픽 렌더링에서 범용 영역으로 GPU의 응용 분야를 확장할 수 있도록 하는 데 있습니다.
퀀텀 칩과 같은 새로운 하드웨어를 기반으로 새로운 소프트웨어를 개발하는 경우, 이전 버전과의 호환성을 확보해야 하지만 기존의 주요 AI 소프트웨어는 대부분 CUDA 플랫폼에 의존해 개발하기 때문에 CUDA 아키텍처에서 탈피하는 데 많은 비용이 소요됩니다. 많은 HPC 개발자들이 쿠다 생태계에서 개발 경험을 쌓고, 쿠다의 연간 다운로드 수가 500만 건에 달하는 개발 커뮤니티의 해자 효과와 함께, 개발자 커뮤니티가 다른 프로그래밍 모델로 전환하는 것은 수십 년이 걸리는 프로젝트가 될 것입니다.
그래픽 칩 제조 공정과 산업 체인은 성숙되어 있으며, 광범위한 소비자 시장과 긍정적인 산업 사이클을 가지고 있습니다.
GPU는 탄생한 지 25년이 지났으며, 개인용 PC, 맞춤형 개발, AI 데이터 센터와 같은 다운스트림 상용 애플리케이션 시나리오는 10~30년 동안 형성되어 왔습니다. 현재 GPU는 칩 프로젝트에서 1 년의 흐름, 1 년의 흐름에서 대량 생산, GPU 개발의 주요 톤, 포토 리소그래피 장비 개발의 형성, 파운드리 공정 반복 및 기타 해당 연결주기의 흐름으로 이어집니다. 이러한 10년 이상의 긍정적인 사이클에서 견고한 산업 체인은 깨지기 어렵습니다.
그리고 양자 칩 제조와 GPU 산업 사슬은 겹치기 어렵습니다. 양자 칩의 설계 및 제조는 매우 복잡하여 매우 순수한 실험 환경, 정밀한 양자 제어 기술 및 안정적인 양자 비트가 필요하므로 오랫동안 "싸움"에서 산발적으로 소수의 최고 기술 회사가 있었으며 아직 성숙한 산업 공급망을 형성하지 못했습니다. 따라서 단기간에 양자 칩의 대량 생산과 상업적 응용을 달성하는 것은 큰 문제입니다.
4. 양자 칩은 암호화폐와 HPC+AI에 가장 큰 영향을 미칠 것이다
4.1 양자 칩 또는 암호화폐는 "천적"입니다.
비트코인을 예로 들면, 비트코인의 보안은 두 가지 핵심 메커니즘을 기반으로 합니다. <하나는 "채굴" 메커니즘입니다. 비트코인의 출력은 해시 함수에 의존하는 작업 증명에 기반하며, 해시 비율이 높을수록 채굴 성공 가능성이 높아집니다. 두 번째는 타원 곡선 디지털 서명 알고리즘(ECDSA)을 기반으로 하는 거래 서명이며, 사용자의 '신원 지갑'에 해당합니다. 이 두 가지 메커니즘은 모두 기존 컴퓨팅에서 비트코인을 사실상 해독할 수 없도록 설계되었으며, 양자 칩은 비트코인에 직접적인 위협이 될 것입니다.
첫째, 양자 컴퓨팅은 '채굴' 메커니즘에 대한 무차별 대입 솔루션입니다. 양자 컴퓨팅 알고리즘은 해시 함수의 계산, 즉 채굴 속도를 가속화 할 수 있으며 그 크기는 모든 기존 장비보다 크며 그 결과 채굴 성공률이 증가하고 암호 화폐의 공급이 갑자기 증가하여 시장 가격이 급격히 변동합니다. 10 월 10 일 100,000 달러의 비트 코인은 94,000 달러로 떨어졌습니다. 12일까지 총 237,000명이 포지션을 날려버렸습니다.
두 번째는 양자 컴퓨팅의 거래 서명에 대한 직접적인 위협입니다. 암호화폐 거래에는 은행 카드 번호에 해당하는 공개 키와 지갑 비밀번호에 해당하는 개인 키라는 두 가지 유형의 자격 증명이 있습니다. 일반적으로 공개키 주소가 공개되더라도 사용자 자금의 보안에는 영향을 미치지 않지만, 양자 컴퓨팅은 공개키를 이용해 서명을 해독하고 거래를 위조할 수 있습니다. 예를 들어, 큰 정수의 소인수분해와 이산 로그 문제를 풀기 위해 특별히 설계된 양자 컴퓨팅의 쇼 알고리즘은 트랜잭션 서명에 심각한 위협이 될 수 있습니다.
현재 윌로우가 비트코인에 미치는 위협은 거의 없지만, 향후 양자 컴퓨팅에 의해 암호화폐가 깨질 가능성은 매우 높습니다. 이론적으로 비트코인의 서명 및 채굴 메커니즘을 공격하려면 약 수백만 개의 물리적 양자 비트가 필요한데, 이는 현재 윌로우가 보유한 105개의 물리적 양자 비트와 비교하면 여전히 큰 격차입니다. 그러나 윌로우가 범용 GPU처럼 반복하여 대량 생산과 산술적 도약을 달성한다면 향후 10년 안에 비트코인을 "무너뜨리는 것"이 불가능한 일은 아닙니다.
4.2 양자 칩은 'HPC+AI'를 촉진하고 고차 인공지능의 개발을 촉진할 것입니다
오픈AI의 인공지능 분류에 따르면 L1(챗봇)에서 L5(AGI)까지, 현재 대형 인공지능 모델의 개발은 L1에서 L2로 넘어가는 과도기 단계에 불과합니다. L5 AGI는 역동적이고 복잡한 실제 환경에서 판단, 추론, 예측 및 조치를 계획할 수 있는 '조직 수준의 역량'을 갖춘 것으로 정의됩니다. 업계에서는 'HPC+AI'가 AGI 실현의 핵심 단계가 될 것으로 보고 있습니다.
과학, 공학 및 기술 실현 문제를 해결하기 위해 강력한 컴퓨터를 사용하는 것을 의미하는 고성능 컴퓨팅(HPC)은 오늘날의 대규모 AI 모델과 어느 정도 유사하지만 방향과 초점이 다릅니다. 방향과 초점이 다릅니다.
HPC는 기상학, 물리학, 천문학 및 기타 분야에서 슈퍼컴퓨터를 사용하여 주요 과학적 혁신을 이끌어낸 것과 같이 "복잡한 문제 해결"에 초점을 맞추고 있습니다.
반면 AI 모델은 "추론과 생성"에 초점을 맞추고 있으며, 복잡한 모델을 잘 풀지는 못하지만 범용성이 뛰어납니다.
퀀텀 칩의 구현은 복잡한 문제 해결을 위해 더 이상 기존 HPC의 오랜 "폭력적인 컴퓨팅"이 필요하지 않고 더 복잡한 범용 훈련을 위해 새로운 방향, 즉 AI와 결합된 방향으로 발전할 수 있는 HPC 분야의 혁명적인 돌파구입니다. 보다 복잡한 범용 트레이닝을 위해.
첫째, 기존 AI 학습은 양자 비트 데이터로는 작동하지 않는 반면, 양자 컴퓨팅은 기존 컴퓨팅이 처리할 수 없는 특정 학습 모델을 최적화하고 양자 현상에 민감한 시스템 모델을 구축할 수 있습니다. 즉, 미래의 AI 모델은 복잡한 세계를 추론하고 예측할 수 있는 능력을 갖추게 되어 현재의 대규모 모델에 비해 'AI 착시' 현상을 줄이거나 없앨 수 있게 될 것입니다.
두 번째는 양자 오류 수정 기술의 장점으로, 윌로우 칩은 양자 오류 수정의 핵심 과제를 극복하고 오류율을 크게 낮췄습니다. 고수준 AI 학습에서 양자 오류 수정 기술을 적용하면 학습 시 모델의 정확성과 신뢰성을 보장하고, 대량의 복잡한 데이터를 처리하며, 양자 비트의 취약성으로 인한 계산 오류를 줄여 AI 학습의 효과와 신뢰성을 향상시킬 수 있습니다. .
현재 AI 학습에는 아직 양자 칩을 적용할 수 있는 조건이 갖춰지지 않았지만, 향후에는 연산 능력의 핵심 지원으로 양자 칩이 필요할 가능성이 높습니다. 양자 비트는 매우 민감하기 때문에 온도와 전자기장 등 외부 환경 요인에 영향을 받기 쉽고, 이는 양자 상태의 해독을 초래하여 계산 결과의 정확도에 영향을 미칠 수 있습니다. 윌로우의 양자 오류 수정 기술은 어느 정도 진전을 이루었지만, 실제 AI 학습 애플리케이션에서 장기간에 걸쳐 안정적으로 작동하려면 양자 시스템의 안정성과 간섭 방지 성능을 더욱 개선해야 합니다.
구글의 차세대 양자 컴퓨팅 칩인 윌로우의 출시는 글로벌 기술 커뮤니티에 큰 파장을 일으켰으며, 이는 양자 컴퓨팅 분야의 획기적인 발전일 뿐만 아니라 차세대 글로벌 기술 최전선에 서게 될 것입니다.
퀀텀 컴퓨팅 기술의 미래로 가는 길은 여전히 험난하며, 대규모로 AI 학습에 적용되기까지 해결해야 할 문제가 많이 남아 있습니다.
'GPU'가 무명에서 위대함으로 발전한 것처럼 과학 기술의 발전은 결코 순탄한 길을 걸어온 것이 아닙니다.