IHEP søger kvantemuligheder for at fremskynde grundlæggende videnskab – Physics World

IHEP søger kvantemuligheder for at fremskynde grundlæggende videnskab – Physics World

Kinas Institut for Højenergifysik (IHEP) i Beijing er banebrydende med innovative tilgange inden for kvanteberegning og kvantemaskinelæring for at åbne op for nye forskningsveje inden for sit partikelfysikprogram, som Hideki Okawa, Weidong Li , Jun Cao forklare

<a href="https://platoblockchain.com/wp-content/uploads/2024/02/ihep-seeks-quantum-opportunities-to-fast-track-fundamental-science-physics-world-5.jpg" data-fancybox data-src="https://platoblockchain.com/wp-content/uploads/2024/02/ihep-seeks-quantum-opportunities-to-fast-track-fundamental-science-physics-world-5.jpg" data-caption="Simuler for at akkumulere IHEP højtydende computerklynge er en af ​​flere computerressourcer, der understøtter QuIHEP kvantesimulatorplatformen. (Med høflighed: IHEP)"> IHEP højtydende computerklynge
Simuler for at akkumulere IHEP højtydende computerklynge er en af ​​flere computerressourcer, der understøtter QuIHEP kvantesimulatorplatformen. (Med høflighed: IHEP)

Instituttet for højenergifysik (IHEP), som er en del af det kinesiske videnskabsakademi, er det største grundlæggende videnskabelige laboratorium i Kina. Det er vært for et tværfagligt forskningsprogram, der spænder over elementær partikelfysik, astrofysik samt planlægning, design og konstruktion af storskala acceleratorprojekter - herunder China Spallation Neutron Source, som blev lanceret i 2018, og High Energy Photon Source, der skal komme online i 2025.

Mens investeringer i IHEPs eksperimentelle infrastruktur er steget dramatisk i løbet af de sidste 20 år, er udviklingen og anvendelsen af ​​kvantemaskinelæring og kvantecomputerteknologier nu klar til at give tilsvarende vidtrækkende resultater inden for IHEP-forskningsprogrammet.   

Stor videnskab, kvanteløsninger

Højenergifysik er hvor "big science" møder "big data". At opdage nye partikler og undersøge de grundlæggende naturlove er bestræbelser, der producerer utrolige mængder af data. Large Hadron Collider (LHC) ved CERN genererer petabytes (1015 bytes) af data under dets eksperimentelle kørsler – som alle skal behandles og analyseres ved hjælp af grid computing, en distribueret infrastruktur, der netværker computerressourcer over hele verden.

På denne måde giver Worldwide LHC Computing Grid et fællesskab af tusindvis af fysikere næsten-realtidsadgang til LHC-data. Det sofistikerede computernet var grundlæggende for den skelsættende opdagelse af Higgs-bosonen ved CERN i 2012 såvel som utallige andre fremskridt for yderligere at undersøge standardmodellen for partikelfysik.

Et andet omdrejningspunkt truer dog, når det kommer til lagring, analyse og mining af big data i højenergifysik. High-Luminosity Large Hadron Collider (HL-LHC), som forventes at træde i drift i 2029, vil skabe et "computing crunch" som maskinens integrerede lysstyrke, proportionalt med antallet af partikelkollisioner, der forekommer i en given tidsperiode , vil stige med en faktor 10 i forhold til LHC's designværdi – og det samme vil de datastrømme, der genereres af HL-LHC-eksperimenterne.

På kort sigt vil der være behov for en ny "computing baseline" for at klare HL-LHC's skyhøje datakrav - en baseline, der vil kræve udnyttelse af grafikbehandlingsenheder i stor skala til massiv parallel simulering, dataregistrering og genbehandling. , samt klassiske anvendelser af maskinlæring. CERN har på sin side også etableret en mellem- og langsigtet køreplan, der samler højenergifysik- og kvanteteknologisamfundene via CERN Quantum Technology Initiative (QTI) – en erkendelse af, at endnu et spring i computerydelse er ved at komme til syne med anvendelse af kvantecomputere og kvantenetværksteknologier.

Tilbage til quantum basics

Kvantecomputere, som navnet antyder, udnytter kvantemekanikkens grundlæggende principper. I lighed med klassiske computere, som er afhængige af de binære bit, der tager værdien af ​​enten 0 eller 1, udnytter kvantecomputere binære kvantebit, men som en superposition af 0- og 1-tilstande. Denne superposition, kombineret med kvantesammenfiltring (korrelationer mellem kvantebits), gør i princippet kvantecomputere i stand til at udføre nogle typer beregninger væsentligt hurtigere end klassiske maskiner - for eksempel kvantesimuleringer anvendt inden for forskellige områder af kvantekemi og molekylær reaktionskinetik.

Mens mulighederne for videnskab og den bredere økonomi synes overbevisende, er en af ​​de store ingeniørmæssige hovedpine forbundet med tidlige stadier af kvantecomputere deres sårbarhed over for miljøstøj. Qubits forstyrres alt for let, for eksempel af deres interaktioner med Jordens magnetfelt eller omstrejfende elektromagnetiske felter fra mobiltelefoner og WiFi-netværk. Interaktioner med kosmiske stråler kan også være problematiske, ligesom interferens mellem tilstødende qubits kan.

<a data-fancybox data-src="https://platoblockchain.com/wp-content/uploads/2024/02/ihep-seeks-quantum-opportunities-to-fast-track-fundamental-science-physics-world-2.jpg" data-caption="Stor fysik IHEP-forskere arbejder på at "genopdage" den eksotiske partikel Zc(3900) ved hjælp af kvantemaskinelæring. Den subatomare partikel - den første tetraquark-tilstand, der blev observeret eksperimentelt - blev opdaget i 2013 af BESIII-detektoren (vist her) ved IHEP's Beijing Electron-Positron Collider. (Courtesy: IHEP)” title=”Klik for at åbne billede i popup” href=”https://platoblockchain.com/wp-content/uploads/2024/02/ihep-seeks-quantum-opportunities-to-fast-track -fundamental-science-physics-world-2.jpg">IHEP's BESIII detektor

Den ideelle løsning - en strategi kaldet fejlkorrektion - involverer lagring af den samme information på tværs af flere qubits, således at fejl vil blive opdaget og rettet, når en eller flere af qubits påvirkes af støj. Problemet med disse såkaldte fejltolerante kvantecomputere er deres behov for et stort antal qubits (i størrelsesordenen millioner) – noget, der er umuligt at implementere i den nuværende generations småskala kvantearkitekturer.

I stedet kan designerne af nutidens Noisy Intermediate-Scale Quantum (NISQ) computere enten acceptere støjeffekterne, som de er, eller delvist gendanne fejlene algoritmisk – altså uden at øge antallet af qubits – i en proces kendt som fejlreduktion. Adskillige algoritmer er kendt for at give modstandsdygtighed mod støj i små kvantecomputere, således at "kvantefordele" kan observeres i specifikke højenergifysikapplikationer på trods af de iboende begrænsninger af nuværende generations kvantecomputere.

En sådan undersøgelseslinje hos IHEP fokuserer på kvantesimulering og anvender ideer, der oprindeligt blev fremsat af Richard Feynman omkring brugen af ​​kvanteanordninger til at simulere tidsudviklingen af ​​kvantesystemer - for eksempel i gitterkvantekromodynamik (QCD). Standardmodellen beskriver i sammenhæng alle de grundlæggende vekselvirkninger mellem elementarpartiklerne bortset fra tyngdekraften – dvs. at binde de elektromagnetiske, svage og stærke kræfter sammen. På denne måde omfatter modellen to sæt såkaldte kvantemålefeltteorier: Glashow-Weinberg-Salam-modellen (der giver en samlet beskrivelse af de elektromagnetiske og svage kræfter) og QCD (for de stærke kræfter).

Det er generelt sådan, at kvantemålefeltteorierne ikke kan løses analytisk, med de fleste forudsigelser for eksperimenter, der er afledt af tilnærmelsesmetoder til kontinuerlig forbedring (også kendt som perturbation). Lige nu arbejder IHEP-medarbejdere på direkte at simulere målefelter med kvantekredsløb under forenklede forhold (for eksempel i reducerede rum-tidsdimensioner eller ved at bruge endelige grupper eller andre algebraiske metoder). Sådanne tilgange er kompatible med nuværende iterationer af NISQ-computere og repræsenterer grundlæggende arbejde for en mere komplet implementering af gitter-QCD i den nærmeste fremtid.

QuIHEP kvantesimulatoren

Som en forlængelse af sit ambitiøse kvante-F&U-program har IHEP etableret QuIHEP, en kvantecomputersimulatorplatform, der gør det muligt for forskere og studerende at udvikle og optimere kvantealgoritmer til forskningsstudier i højenergifysik.

For klarhedens skyld er kvantesimulatorer klassiske computerrammer, der forsøger at efterligne eller "simulere" kvantecomputeres opførsel. Kvantesimulering, på den anden side, anvender faktisk kvantecomputerhardware til at simulere tidsudviklingen af ​​et kvantesystem – f.eks. gitter QCD-studierne på IHEP (se hovedteksten).

Som sådan tilbyder QuIHEP et brugervenligt og interaktivt udviklingsmiljø, der udnytter eksisterende højtydende computerklynger til at simulere op til omkring 40 qubits. Platformen giver en komponistgrænseflade til uddannelse og introduktion (der demonstrerer for eksempel, hvordan kvantekredsløb er opbygget visuelt). Udviklingsmiljøet er baseret på Jupyter open source-software og kombineret med et IHEP-brugergodkendelsessystem.

På kort sigt vil QuIHEP koble sig op med distribuerede kvantecomputerressourcer på tværs af Kina for at etablere en harmoniseret forskningsinfrastruktur. Målet: at støtte industri-akademisk samarbejde og uddannelse og træning i kvantevidenskab og ingeniørvidenskab. 

Maskinlæring: kvantevejen

Et andet kvanteforskningstema på IHEP involverer kvantemaskinelæring, som kan grupperes i fire forskellige tilgange: CC, CQ, QC, QQ (med C - klassisk; Q - kvante). I hvert tilfælde svarer det første bogstav til datatypen og det sidste til typen af ​​computeren, der kører algoritmen. CC-skemaet udnytter for eksempel fuldt ud klassiske data og klassiske computere, selvom det kører kvanteinspirerede algoritmer.

Den mest lovende use-case, der forfølges på IHEP, involverer imidlertid CQ-kategorien maskinlæring, hvor den klassiske datatype kortlægges og trænes i kvantecomputere. Motivationen her er, at ved at udnytte kvantemekanikkens grundlæggende principper – det store Hilbert-rum, superposition og sammenfiltring – vil kvantecomputere være i stand til at lære mere effektivt fra store datasæt for at optimere de resulterende maskinlæringsmetoder.

<a data-fancybox data-src="https://platoblockchain.com/wp-content/uploads/2024/02/ihep-seeks-quantum-opportunities-to-fast-track-fundamental-science-physics-world-3.jpg" data-caption="Partikelsporing IHEP-forskere mener, at kvanteberegning vil hjælpe med at strømline sporrekonstruktionsmetoder i næste generation af partikelacceleratorer som HL-LHC. Ovenfor: Hideki Okawa (til højre), Jiaheng Zou (stående) og Xiaozhong Huang (til venstre) evaluerer rekonstruerede partikelspor genereret med Origin Quantum Wuyuan-computeren, regnet som "Kinas første praktiske kvantecomputer". (Courtesy: IHEP)” title=”Klik for at åbne billede i popup” href=”https://platoblockchain.com/wp-content/uploads/2024/02/ihep-seeks-quantum-opportunities-to-fast-track -fundamental-science-physics-world-3.jpg">Hideki Okawa, Jiaheng Zou og Xiaozhong Huang

For at forstå potentialet for kvantefordele arbejder IHEP-forskere i øjeblikket på at "genopdage" den eksotiske partikel Zc(3900) ved hjælp af kvantemaskinelæring. Med hensyn til baghistorien: Zc(3900) er en eksotisk subatomær partikel, der består af kvarker (byggestenene i protoner og neutroner) og menes at være den første tetraquark-tilstand, der er observeret eksperimentelt - en observation, der i processen uddybede vores forståelse af QCD. Partiklen blev opdaget i 2013 af Beijing Spectrometer (BESIII) detektor ved Beijing Electron-Positron Collider (BEPCII), med uafhængig observation af Belle-eksperimentet ved Japans KEK partikelfysiklaboratorium.

Som en del af denne R&D-undersøgelse implementerede et team ledet af IHEP's Jiaheng Zou, og inklusive kolleger fra Shandong University og University of Jinan, den såkaldte Quantum Support Vector Machine-algoritme (en kvantevariant af en klassisk algoritme) til træningen med simulerede signaler af Zc(3900) og tilfældigt udvalgte hændelser fra de rigtige BESIII-data som baggrunde.

Ved at bruge kvantemaskinelæringstilgangen er ydeevnen konkurrencedygtig i forhold til klassiske maskinlæringssystemer – dog afgørende med et mindre træningsdatasæt og færre datafunktioner. Undersøgelser er i gang for at demonstrere øget signalfølsomhed med kvanteberegning, arbejde, der i sidste ende kan pege på opdagelsen af ​​nye eksotiske partikler i fremtidige eksperimenter.

Tidsstempel:

Mere fra Fysik verden