Forskare detroniserar Googles Quantum Advantage-anspråk med en konventionell dator PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Forskare detroniserar Googles Quantum Advantage-påstående med en konventionell dator

bild

När Google meddelade att sin kvantdator hade löst ett problem bortom förmåga den mest kraftfulla superdatorn, det var ett landmärke för branschen. Men kinesiska forskare har nu visat att de kunde lös Samma problem på en vanlig superdator på bara några sekunder.

Det ultimata löftet om kvantum databehandling is dess förmåga att utföra vissa beräkningsprestationer mycket snabbare än klassiska maskiner, eller till och med lösa problem som skulle vara i princip omöjliga att knäcka med traditionella metoder.

Fältet är dock fortfarande begynnande, och dagens enheter är alldeles för små för att kunna användas på några verkliga utmaningar. Men i ett försök att bevisa att fältet gör framsteg, har utvecklare av kvantprocessorer varit ivriga att hitta problem som kanske inte har så mycket praktisk användning, men som kan visa de potentiella snabbheterna som deras teknik är kapabel till.

Google gjorde ett stort genombrott på denna front 2019 när det hävdade att det Sycamore-processor hade löst ett problem som skulle ta en superdator 10,000 200 år på bara XNUMX sekunder. Problemet var riggat till deras fördel, eftersom det i huvudsak innebar att simulera deras processors utdata, men genom att visa att en klassisk dator skulle kämpa kunde de hävda "kvantöverlägsenhet", mer känt som "kvantfördelar" idag.

Men nu forskare i Chinen har knäckte samma problem på bara 15 timmar använder sen smart algoritmisk design och en lagom stor dator. Enligt deras beräkningar skulle det bara ta några dussin sekunder om de hade tillgång till fullstora superdatorer.

Utmaningen Google hade ställt var att simulera sin processor som fungerar mer eller mindre som en slumptalsgenerator. Den enda skillnaden var att de upprepade algoritmen miljontals gånger, och på grund av algoritmens natur borde ett visst mönster uppstå i de slumpmässiga talen som spottades ut.

Att simulera detta på en klassisk dator borde snabbt bli svårt eftersom storleken på processorn ökar, eftersom mängden kodad information ökar exponentiellt för varje extra qubit. Med hjälp av konventionella metoder för att lösa detta problem förutspådde Google att det skulle ta 10,000 53 år att simulera dess XNUMX-qubit-processor.

Teamet från Institutet för teoretisk fysik vid den kinesiska vetenskapsakademin fick arunda detta genom att omarbeta den underliggande matematiken som användes för att lösa problemet. De representerade processorn som ett 3D-nätverk av matematiska objekt som kallas tensorer som representerar de logiska grindarna mellan de 53 qubitarna. Detta nätverk upprepades över 20 lager, utformade för att representera de 20 cyklerna som kvantalgoritmen går igenom innan processorns utdata läses.

Fördelen med att använda tensorer är att GPU:er, chipsen som har drivit revolutionen för djupinlärning, kan bearbeta dem mycket snabbt parallellt. Forskarna utnyttjade också det faktum att Googles beräkningar på Sycamore inte var särskilt exakta, och uppnådde en trohet på bara 0.2 procent. Detta gjorde det möjligt för dem att offra en del av noggrannheten i sin simulering för att öka dess hastighet, vilket de gjorde genom att ta bort några av kopplingarna mellan qubits.

Resultatet var att de lyckades simulera uteffekten från Sycamore-processorn till en trovärdighet på 0.37 procent på bara 15 timmar på 512 GPU:er – avsevärt mindre processorkraft än de flesta ledande superdatorer. En tidning som beskriver resultaten är för närvarande i tryck kl Fysiska granskningsbrev, men en icke-peer-reviewed pre-print släpptes i november förra året.

Medan resultatet något spränger Googles kvantöverhöghetsbubbla, i ett e-postmeddelande till Vetenskap, påpekade företaget att det hade förutspått klassiska algoritmer skulle förbättras i sitt 2019-dokument. Men de tillägger att de inte tror att de kommer att kunna hålla jämna steg med kvantdatorernas exponentiella prestandaökningar på länge.

Det är inte det enda kvantöverhöghetsexperimentet som är ogjort. 2020, en kines grupp hävdade att ett problem som deras kvantdator kunde lösa på 200 sekundernds skulle ta en superdator 2.5 miljarder år, men i januari visade forskare att det faktiskt bara skulle ta 73 dagar.

Även om detta inte förnekar de framsteg som görs på området, säger en växande kör av forskare att ställa kvantmaskiner och klassiska maskiner mot varandra på den här typen av abstrakta beräkningsproblem inte riktigt ger en tydlig känsla av var tekniken är. at.

Det verkliga testet, säger de, kommer att vara när kvantdatorer kan lösa verkliga problem snabbare och mer effektivt än klassiska. Och det verkar som om det fortfarande kan vara en bit bort.

Bildkredit: Google

Tidsstämpel:

Mer från Singularity Hub