Przełom Harvardu w obliczeniach kwantowych: krok w kierunku korekcji błędów i redukcji szumów

Przełom Harvardu w obliczeniach kwantowych: krok w kierunku korekcji błędów i redukcji szumów

Przełom Harvarda w obliczeniach kwantowych: krok w kierunku korekcji błędów i redukcji szumów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Nastąpił znaczny postęp w obliczeniach kwantowych, co odkryła grupa badaczy z Uniwersytetu Harvarda we współpracy z QuEra Computing Inc., Uniwersytetem Maryland i Massachusetts Institute of Technology. Agencja Zaawansowanych Projektów Badawczych Obrony (DARPA) Stanów Zjednoczonych zapewniła fundusze na rozwój jedynego w swoim rodzaju procesora, który został zaprojektowany z myślą o przezwyciężeniu dwóch najważniejszych problemów w tej dziedzinie: hałas i błędy.

Szum oddziałujący na kubity (bity kwantowe) i powodujący błędy obliczeniowe stanowi istotną przeszkodę w obliczeniach kwantowych, które borykają się z tym problemem trudność przez jakiś czas. Okazało się to istotną przeszkodą w procesie udoskonalania technologii komputerów kwantowych. Od zarania dziejów komputery kwantowe zawierające ponad tysiąc kubitów były potrzebne do korekcji błędów w ogromnych ilościach. Jest to problem, który uniemożliwia szerokie wykorzystanie tych komputerów.

W przełomowym badaniu opublikowanym w recenzowanym czasopiśmie naukowym Nature zespół kierowany przez Uniwersytet Harvarda ujawnił swoją strategię rozwiązania tych problemów. Wpadli na pomysł kubitów logicznych, czyli zbiorów kubitów połączonych ze sobą za pomocą splątania kwantowego w celach komunikacyjnych. W przeciwieństwie do konwencjonalnej metody korekcji błędów, która opiera się na zduplikowanych kopiach informacji, technika ta wykorzystuje nieodłączną redundancję obecną w kubitach logicznych.

Zespół wykorzystał liczbę 48 kubitów logicznych, która nigdy wcześniej nie została osiągnięta, aby skutecznie przeprowadzić obliczenia na dużą skalę na komputerze kwantowym z korekcją błędów. Udowadniając, że odległość kodowa wynosi siedem, co wskazuje na większą odporność na błędy kwantowe, stało się to możliwe poprzez skonstruowanie i splątanie największych kubitów logicznych, jakie kiedykolwiek stworzono. Dlatego stało się to możliwe.

Aby skonstruować procesor, w komorze próżniowej rozdzielono tysiące atomów rubidu, a następnie schłodzono je do temperatury bardzo bliskiej zera absolutnego za pomocą laserów i magnesów. 280 z tych atomów zostało zamienionych na kubity i splątanych za pomocą dodatkowych laserów, w wyniku czego powstało 48 kubitów logicznych. Zamiast używać przewodów, kubity komunikowały się ze sobą za pomocą pęsety optycznej.

W porównaniu z poprzednimi, większymi maszynami opartymi na fizycznych kubitach, ten nowy komputer kwantowy wykazał znacznie niższy poziom błędów podczas obliczeń. Zamiast naprawiać błędy pojawiające się podczas obliczeń, procesor używany przez zespół z Harvardu uwzględnia fazę wykrywania błędów po przetwarzaniu. W tej fazie wykrywane i odrzucane są błędne wyniki. Jest to przyspieszone podejście do skalowania komputerów kwantowych poza obecną erę Noisy Intermediate-Scale Quantum (NISQ), która obecnie obowiązuje.

W wyniku tego osiągnięcia otworzyły się nowe możliwości obliczeń kwantowych. Osiągnięcie to stanowi duży krok w kierunku rozwoju komputerów kwantowych, które są skalowalne, odporne na awarie i zdolne do rozwiązywania problemów, które tradycyjnie były nierozwiązywalne. W szczególności badanie podkreśla możliwość przeprowadzania przez komputery kwantowe obliczeń i kombinatoryki, których nie można sobie wyobrazić w przypadku technologii dostępnej obecnie w dziedzinie informatyki. Otwiera to zupełnie nową drogę rozwoju technologii kwantowej.

Źródło obrazu: Shutterstock

Znak czasu:

Więcej z Blok Chain Aktualności