Google が量子誤り訂正の進歩を主張

Google が量子誤り訂正の進歩を主張

Googleは、量子エラー訂正がPlatoBlockchainデータインテリジェンスを前進させると主張しています。垂直検索。あい。Google は、量子エラー訂正という非常に困難な問題に関連する量子コンピューティングの進歩を主張しています。

Google と Alphabet の CEO である Sundar Pichai のブログ投稿で、同社の量子 AI 研究者は、量子情報の基本単位である量子ビットの数を増やすことでエラーを減らすことができることを「実験的に実証」したと述べました。

「私たちのブレークスルーは、量子コンピューターの運用方法が大きく変化したことを表しています」とピチャイ氏は述べています。 「量子プロセッサで物理量子ビットを 49 つずつ処理する代わりに、それらのグループを 17 つの論理量子ビットとして扱っています。 その結果、XNUMX の物理量子ビットから作成した論理量子ビットは、XNUMX の量子ビットから作成したものよりも優れた性能を発揮することができました。」

彼は、研究がされていると付け加えました 論文に掲載科学雑誌 Nature の「Suppressing Quantum Errors by Scaling a Surface Code Logical Qubit」。

ピチャイ氏は、量子コンピューターによる量子ビット (「量子アゴリズム」) の組織化された操作は非常に機密性の高い操作であるため、これは重要なマイルストーンであると述べています。 これは、量子コンピューターと量子ビット数の増加に伴って高まる課題です。 「有用なアプリケーションを実行するために私たちが知っている最高の量子アルゴリズムは、量子ビットのエラー率を現在よりもはるかに低くする必要があるため、これは重大な結果をもたらします」と彼は言いました。

Googleは、量子エラー訂正がPlatoBlockchainデータインテリジェンスを前進させると主張しています。垂直検索。あい。

サンダー・ピチャイ — Google / Alphabet

ピチャイ氏によると、このギャップを埋めるには、複数の物理量子ビットにわたって情報をエンコードして「論理量子ビット」を形成することで情報を保護する、量子誤り訂正が必要になるという。 これは、「有用な計算に十分なほど低いエラー率で大規模な量子コンピューターを生成する唯一の方法であると考えられています。

「個々の量子ビット自体を計算する代わりに、論理量子ビットを計算します」と彼は言いました。 「当社の量子プロセッサで多数の物理量子ビットを XNUMX つの論理量子ビットにエンコードすることで、エラー率を減らして有用な量子アルゴリズムを実現したいと考えています。」

「論理量子ビットをスケーリングするこの実験的なマイルストーンを達成したのは、これが初めてです」とピチャイ氏は述べています。

追加の詳細が提供されます 別のブログ投稿で Google のエンジニアリング担当バイス プレジデントである Hartmut Neven と、量子ハードウェア担当ディレクターである Julian Kelly から。

エラー訂正は、従来の HPC システムの範囲を超えたワークロードを処理できる成熟した安定した量子コンピューターの開発に対する最大の障壁の XNUMX つです。 これは、量子サークルで有名な記事で述べられていました 2018年IEEE Spectrum発行、「量子コンピューティングに対する事例」、ミハイル・ディアホノフ、フランスのモンペリエ大学、ラボラトワール・シャルル・クーロンの物理学教授。

彼は、「有用な量子コンピューターに必要な量子ビット数は 1,000 から 100,000 の間であると推定されている」ため、量子誤り訂正は実際には不可能であると宣言しました。観測可能な宇宙の亜原子粒子の数よりも。」

ピチャイ氏は、将来の量子の進歩により、「エラー率の低い数千の論理量子ビットにスケーリングするには、さらに多くの技術的マイルストーンを達成する必要がある. その先には長い道のりがあります。極低温から制御電子機器、量子ビットの設計と材料に至るまで、技術のいくつかのコンポーネントを改善する必要があります。 このような開発により、大規模な量子コンピューターがより明確に見えるようになります。」

タイムスタンプ:

より多くの HPCの内部