Lumaktaw sa pangunahing nilalaman

Pananaw at direksyon sa hinaharap

Sa ngayon, natutunan na natin ang dahilan kung bakit kapaki-pakinabang na gamitin ang parehong high-performance computing (HPC) at quantum computing sa paglutas ng mga siyentipikong problema. Tinukoy natin ang mga klasikal at quantum na mapagkukunan ng compute, kabilang ang mga CPU, GPU, at QPU, at tinalakay kung paano i-scale at pamahalaan ang mga ito gamit ang mga pamamaraan tulad ng vertical at horizontal scaling, scheduling, at workload management. Bukod pa rito, sinuri natin ang mga programming model para sa parehong QPU (tulad ng quantum circuits at primitives na Sampler at Estimator) at mga klasikal na computer, kasama na ang parallel programming gamit ang MPI, isang makapangyarihang tool sa quantum-classical heterogeneous computing. Sa huli, pinag-aralan at pinraktisan natin ang mga advanced na quantum sampling-based algorithm, tulad ng Sample-based Quantum Diagonalization (SQD) at Sample-based Krylov Quantum Diagonalization (SKQD). Ginagamit ng mga algorithm na ito ang subspace method upang tumpak na matantya ang ground state energy ng mga molekula at materyales sa pamamagitan ng paghahanda at pag-sample ng mga quantum state, na nagtatakda ng subspace para sa klasikal na diagonalization — isang kumbinasyon ng iba't ibang programming model sa isang hanay ng mga heterogeneous na mapagkukunan. Sa pamamagitan ng mga pundasyonal na konsepto ng quantum at klasikal na supercomputing, hindi na tayo nagsasalita tungkol sa pagpapalit ng isa sa isa, kundi sa paglikha ng isang makapangyarihan at integrated na sistema na nagtatrabaho nang magkakasama — isang kumbinasyon na handang magdala sa simula ng quantum advantage.

Bakit ngayon?​

Nalagpasan na ng komunidad ang milestone ng "quantum utility" — kung saan napatunayan na ang mga quantum computer bilang mga kapaki-pakinabang na siyentipikong kasangkapan na may kakayahang gumawa ng mga kalkulasyon na lampas pa sa klasikal na brute-force simulation. Nagsimula ang utility era sa bantog na utility paper na lumabas sa pabalat ng Nature noong 2023, at sumunod pa ang dose-dosenang publikasyon mula sa mga kasosyo, kliyente, at mananaliksik ng IBM Quantum®. Ngayon, ang pokus ay lumipat na sa susunod na mahalagang hangganan: ang pagkamit ng quantum advantage. Sa mahabang panahon, ang terminong "quantum advantage" ay nagdusa mula sa hindi malinaw na mga kahulugan. Ang papel na ito ay naglatag ng kongkretong kahulugan, na gagamitin natin dito. Sa partikular, ang quantum advantage ay tumutukoy sa pagpapatupad ng isang information processing task sa quantum hardware na nakakatugon sa dalawang mahahalagang pamantayan:

i) Ang kawastuhan ng output ay maaaring mahigpit na mapatunayan, at

ii) Ito ay isinasagawa na may quantum separation na malinaw na nag-aalok ng mas mataas na kahusayan, cost-effectiveness, o katumpakan kaysa sa makakamit ng klasikal na computation lamang.

Inaasahang magsisimulang lumitaw ang quantum advantage bago matapos ang 2026 at mangyayari ito sa pamamagitan ng pagsama ng mga quantum at HPC na mapagkukunan. Binabalangkas ng araling ito ang pangunahing bisyon para sa bagong paradigma na ito, detalyado ang mga pangunahing ideya sa hinaharap, at nagtatanghal ng pananaw sa hinaharap na nakabatay sa isang napapatunayan at platform-agnostic na balangkas para sa pagpapakita at pagkamit ng tunay na quantum advantage.

5.1 Ang malawak na larawan​

Sa unang pagkakataon, nasaksihan natin ang isang makabuluhang pagbabago sa kasaysayan ng computation — ang era ng quantum-centric supercomputing (QCSC), isang umuusbong na paradigma na mahigpit na nag-iintegrate ng mga quantum processing unit (QPU) sa mga klasikal na supercomputer. Ang bisyon ay hindi para palitan ng mga quantum system ang mga klasikal, kundi upang ipakita na ang heterogeneous na arkitektura na ito — kung saan ang "quantum plus classical" ay maaaring manalo laban sa klasikal lamang — ang pinaka-makapangyarihang landas pasulong. Sa modelong ito, ang mga QPU ay itinuturing bilang mga espesyalisadong co-processor, nagtatrabaho kasabay ng mga CPU at GPU upang harapin ang mga computational na problema na hindi kayang resolbahin ng mga klasikal na computer.

Ang buong potensyal ng bagong arkitektura na ito ay maaari lamang matupad sa pamamagitan ng paglalagay ng mga makapangyarihang tool na ito sa kamay ng pinakamaraming gumagamit hangga't maaari. Ang bisyong ito ay nagsisimula nang maging katotohanan sa pamamagitan ng pag-deploy ng mga quantum system sa mga established na high-performance computing (HPC) center at sa pag-develop ng software, tulad ng mga quantum Slurm plugin, na nagpapadali ng kanilang integrasyon sa mga umiiral na klasikal na workflow. Sa pamamagitan ng paggawa ng mga heterogeneous na sistema na ito na mas accessible sa mas malawak na research community, pinapalago natin ang kapaligiran na kailangan para sa inobasyon at pagtuklas.

Ang estratehiyang ito ng pagsasama ng integrated na teknolohiya sa isang malawak na base ng gumagamit ang siyang paraaan na paniniwalaang maaabot ng komunidad ang quantum advantage sa malapit na hinaharap. Ang quantum advantage ay hindi isang solong, tiyak na milestone kundi isang proseso — isang pagkakasunod-sunod ng mga lalong matibay na demonstrasyon na susuriin, i-reproduce, at hahamon ng komunidad hanggang maabot ang siyentipikong consensus. Ito ang landas para ipakita, bago matapos ang 2026, ang mga unang kapani-paniwala at napapatunayan na pagkakataon kung saan ang bagong paraan ng computing na ito ay nagreresolta ng mga praktikal na problema nang mas mahusay, cost-effectively, o tumpak kaysa sa makakamit ng klasikal na computation lamang.

Isang diagram na nagpapakita ng gastos ng mga simulation bilang function ng tumataas na circuit complexity para sa parehong klasikal na computer at quantum computer na may error mitigation. Kapag nagkrus ang mga kurba, ang espasyo sa pagitan nila ay tumutugma sa quantum advantage.

Mga malalaking ideya​

Para matupad ang bisyong ito, ilang mahahalagang katanungan at ideya ang dapat tugunan.

  • Optimal na paghahati ng workload: Sa bahagi ng software, ang hamon ay nasa pamamahala ng mga kumplikadong hybrid na workflow. Ang pag-oorkestra ng maayos na pagpapatupad ng mga gawain sa parehong quantum at klasikal na mapagkukunan ay nangangailangan ng mga sopistikadong kasangkapan. Kasama dito ang Quantum-HPC Middleware at Runtime Infrastructure na dinisenyo upang pangasiwaan ang job scheduling, resource management, at data flow sa heterogeneous na kapaligiran na ito. Bukod pa rito, ang pagbuo ng mga pamamaraan upang epektibong i-parallelize ang mga quantum circuit o hatiin ang mga ito sa mas maliliit at madaling pamahalaan na bahagi ay kritikal para mapakinabangan ang kasalukuyang quantum hardware.

  • System-level na fault-tolerance: Ang pinakamataas na solusyon para protektahan ang quantum information mula sa ingay ay ang fault-tolerant quantum computation (FTQC), kung saan ang impormasyon ay naka-encode sa matibay na "logical qubits". Habang ang mga umuusbong na quantum low-density parity-check (qLDPC) error correction code ay nagbibigay ng landas upang mabawasan ang napakaraming resource overhead na kinakailangan, ang implementasyon ng buong fault-tolerance ay hindi inaasahang magiging praktikal sa malapit na hinaharap. Kasabay nito, ang error mitigation ay gumagamit ng klasikal na post-processing upang mabawasan o maalis ang bias sa mga kalkulasyon na dulot ng ingay, na kritikal din sa pagkamit ng system-level fault-tolerant na quantum system. Ang mga makapangyarihang pamamaraan ng error mitigation ay na-deploy na bilang serbisyo, ipinakikita ang kapangyarihan ng arkitektura ng QCSC. Halimbawa:

    • Ang Tensor Network Error Mitigation (TEM) ng Algorithmiq ay namamahala ng ingay sa software post-processing, ginagamit ang mga klasikal na HPC na mapagkukunan upang palawakin ang kakayahan ng kasalukuyang mga QPU.
    • Ang Quantum Error Suppression and Error Mitigation (QESEM) ng Qedma ay pinagsasama ang hardware-level na error suppression at mitigation upang mapabuti ang pagiging maaasahan ng mga quantum computation sa malaking sukat.
  • Demokratisasyon ng access: Ang paggawa ng mga makapangyarihang hybrid na sistemang ito na malawak na accessible ay susi sa pagpapabilis ng inobasyon. Ito ay naisasakatuparan na sa pamamagitan ng pisikal na pag-deploy ng mga quantum system sa mga HPC center at sa paglalabas ng mga Slurm plugin para sa maayos na integrasyon. Upang ma-streamline ang integrasyon na ito, parehong kumpanya ay naglabas ng mga Slurm plugin, upang ang mga quantum workload ay mapamahalaan gamit ang mga standard na HPC scheduler. Bukod pa rito, ang mga komprehensibong software stack tulad ng Qiskit ay nagbibigay ng cloud-based na runtime environment para sa mababang latency na quantum-circuit execution, nag-o-orkestra ng mga kumplikadong hybrid na gawain at nagbibigay ng mga kasangkapan para sa compilation, optimization, at error mitigation. Ang open-access na quantum hardware at open-sourced na mga development package ay tiyak na magkakaroon ng kritikal na papel.

Pananaw ng IBM sa hinaharap​

Ang IBM Quantum Development Roadmap ay isang magandang halimbawa ng malawak na larawang ito at mga malalaking ideyang ito.

The IBM Quantum Development Roadmap

Ang hardware roadmap ng IBM Quantum ay pinamumunuan ng pokus sa pagdaragdag ng qubit scale at connectivity. Ang serye ng Nighthawk (2025–2028) ay gumagamit ng bagong square lattice architecture upang mapahusay ang connectivity, habang ang Loon processor (2025) ay nagpapakilala ng "c-couplers" upang paganahin ang non-local na qubit connectivity, na kritikal para sa fault-tolerant quantum computing (FTQC). Ang roadmap na ito ay nagtatapos sa mga sistema ng IBM Quantum Starling (2029) at Blue Jay (2033+), na dinisenyo upang maihatid ang malaking sukat at fault-tolerant na computation na may milyun-milyong gate at libu-libong logical qubit.

Ang software at middleware na estratehiya ay nakabatay sa apat na pangunahing layunin: ang tumpak na pagpapatupad, pag-oorkestra ng mga workload, pagtuklas ng mga bagong algorithm, at paglalapat ng mga ito sa mga partikular na gamit. Kasama sa roadmap ang mga patuloy na pagpapabuti tulad ng utility-scale dynamic circuits (2025) at mga bagong profiling tool (2026) upang matiyak ang mahusay na pagpapatupad. Para sa pag-oorkestra ng workload, ang C-API (2025) at mga hinaharap na workflow accelerator (2027) ay mag-i-integrate ng quantum at klasikal na high-performance computing (HPC). Bukod pa rito, ang IBM® ay magpapakilala ng mga utility mapping tool (2026) at mga bagong circuit library (2029) upang mapadali ang pagtuklas at paglalapat ng mga bagong algorithm.

Buod​

Sinuri natin ang malawak na larawan at mga malalaking ideya sa likod ng layunin ng QCSC, at tiningnan natin ang roadmap ng IBM sa pagpapaunlad at inobasyon ng quantum computing. Ang paglalakbay na ito, gaya ng nakita natin, ay isang maratón, hindi isang sprint. Habang nakatuon ang IBM sa paghahatid ng mga lalong makapangyarihang quantum computer, ang aming pag-unlad ay isang bahagi lamang ng equation. Mahalaga na ang quantum community ay patuloy na bumuo ng mga bagong algorithm, nagbubukas ng daan para sa mga aplikasyon na tunay na magdadala ng kapaki-pakinabang na quantum computing sa mundo.

Para makamit ito, kailangan nating magtulungan. Nangangahulugan ito ng pagtatatag ng mga standardized na benchmarking problem sa tulong ng mga klasikal na eksperto upang matiyak ang kaugnayan at pagiging patas. Kailangan din nito ang paglalathala ng mga detalyadong pamamaraan at dataset upang mapadali ang reproducibility, at ang pagpapanatili ng mga open-access na leaderboard upang subaybayan ang ating kolektibong pag-unlad.

Wala pang mas kapana-panabik na panahon upang maging bahagi ng komunidad na ito. Sa pamamagitan ng pagtanggap sa mga pinakamahusay na gawi na ito at patuloy na pag-explore, maaari tayong magtulungan upang matupad ang buong potensyal ng quantum advantage.