IBM meldet genaue Quantenmessung mit mehr als 100 Qubits – High-Performance-Computing-Nachrichtenanalyse | insideHPC

IBM meldet genaue Quantenmessung mit mehr als 100 Qubits – Nachrichtenanalyse zum Hochleistungsrechnen | insideHPC

IBM meldet genaue Quantenmessung mit mehr als 100 Qubits – High-Performance-Computing-Nachrichtenanalyse | insideHPC PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.IBM (NYSE: IBM) gab heute bekannt, dass es sich laut Angaben des Unternehmens um einen Durchbruch im Quantencomputing handelt, der auf dem Cover des wissenschaftlichen Journals veröffentlicht wurde NaturDies zeigt zum ersten Mal, dass Quantensysteme genaue Ergebnisse auf einer Skala von mehr als 100 Qubits liefern können, die über die führenden klassischen Ansätze hinausgehen.“

Ein IBM-Forschungsteam führte ein Experiment durch, bei dem das Unternehmen davon ausgeht, dass es einem Quantencomputer möglich ist, führende klassische Simulationen zu übertreffen, indem er lernt und Fehler im System abmildert, sagte das Unternehmen. Das Team nutzte den Quantenprozessor „Eagle“ von IBM Quantum, der aus 127 supraleitenden Qubits auf einem Chip besteht, um große, verschränkte Zustände zu erzeugen, die die Dynamik von Spins in einem Materialmodell simulieren und Eigenschaften wie seine Magnetisierung genau vorhersagen.

Um die Genauigkeit dieser Modellierung zu überprüfen, führte ein Team von Wissenschaftlern der UC Berkeley diese Simulationen gleichzeitig auf modernen klassischen Computern im National Energy Research Scientific Computing Center (NERSC) des Lawrence Berkeley National Lab durch Purdue University. Als der Maßstab des Modells zunahm, lieferte der Quantencomputer mithilfe fortschrittlicher Fehlerminderungstechniken weiterhin genaue Ergebnisse, auch wenn die klassischen Rechenmethoden schließlich ins Stocken gerieten und nicht mehr mit dem IBM Quantum-System mithalten konnten.

„Dies ist das erste Mal, dass wir Quantencomputer sehen, die ein physikalisches System in der Natur über die führenden klassischen Ansätze hinaus genau modellieren“, sagte Darío Gil, Senior Vice President und Direktor von IBM Research. „Für uns ist dieser Meilenstein ein bedeutender Schritt, um zu beweisen, dass die heutigen Quantencomputer leistungsfähige, wissenschaftliche Werkzeuge sind, mit denen sich Probleme modellieren lassen, die für klassische Systeme äußerst schwierig – und vielleicht sogar unmöglich – sind, und signalisieren, dass wir jetzt in eine neue Ära eintreten von Nutzen für das Quantencomputing.“

„Eines der ultimativen Ziele des Quantencomputings ist die Simulation von Materialkomponenten, die klassische Computer nie effizient simulieren konnten“, sagte das Unternehmen in seiner Ankündigung. „Die Modellierung dieser Aspekte ist ein entscheidender Schritt auf dem Weg zur Bewältigung von Herausforderungen wie der Entwicklung effizienterer Düngemittel, dem Bau besserer Batterien und der Entwicklung neuer Medikamente. Heutige Quantensysteme sind jedoch von Natur aus verrauscht und erzeugen eine erhebliche Anzahl von Fehlern, die die Leistung beeinträchtigen. Dies liegt an der fragilen Natur von Quantenbits oder Qubits und Störungen aus ihrer Umgebung.“ Weitere Informationen zur Demonstration finden Sie unter IBM Research-Blog.

IBM gab außerdem bekannt, dass seine IBM Quantum-Systeme, die sowohl in der Cloud als auch vor Ort bei Partnerstandorten laufen, mit mindestens 127 Qubits betrieben werden und im Laufe des nächsten Jahres fertiggestellt werden sollen.

Diese Prozessoren bieten Zugang zu einer Rechenleistung, die groß genug ist, um klassische Methoden für bestimmte Anwendungen zu übertreffen, und bieten verbesserte Kohärenzzeiten sowie niedrigere Fehlerraten im Vergleich zu früheren IBM-Quantensystemen. Solche Fähigkeiten können mit sich ständig weiterentwickelnden Fehlerminderungstechniken kombiniert werden, um es IBM Quantum-Systemen zu ermöglichen, einen neuen Schwellenwert für die Branche zu erreichen, den IBM als „Utility-Scale“ bezeichnet hat, einen Punkt, an dem Quantencomputer als wissenschaftliche Werkzeuge zur Erforschung neuer Technologien dienen könnten Ausmaß der Probleme, die klassische Systeme möglicherweise nie lösen können.

IBM meldet genaue Quantenmessung mit mehr als 100 Qubits – High-Performance-Computing-Nachrichtenanalyse | insideHPC PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Kredit: IBM

„Während wir unsere Mission vorantreiben, nützliches Quantencomputing auf die Welt zu bringen, verfügen wir über solide Beweise für die Eckpfeiler, die zur Erforschung einer völlig neuen Klasse von Rechenproblemen erforderlich sind“, sagte er Jay Gambetta, IBM Fellow und Vizepräsident, IBM Quantum. „Indem wir unsere IBM Quantum-Systeme mit Prozessoren ausstatten, die für den Einsatzbereich geeignet sind, laden wir unsere Kunden, Partner und Mitarbeiter ein, ihre schwierigsten Probleme einzubringen, um die Grenzen der heutigen Quantensysteme zu erkunden und mit der Erzielung echten Mehrwerts zu beginnen.“

IBM sagte, dass seine Quantenbenutzer in der Lage sein werden, Probleme auf Prozessoren im Versorgungsmaßstab mit mehr als 100 Qubits auszuführen. Die über 2,000 Teilnehmer der IBM Quantum Spring Challenge hatten Zugang zu diesen Prozessoren im Versorgungsmaßstab, während sie dynamische Schaltkreise erforschten, eine Technologie, die die Ausführung fortschrittlicherer Quantenalgorithmen erleichtert.

IBM sagte, Arbeitsgruppen von IBM Quantum-Benutzern erforschen Quanten in:

  • Gesundheitswesen und Biowissenschaften: Unter der Leitung von Organisationen wie der Cleveland Clinic und Moderna erforschen sie Anwendungen der Quantenchemie und des quantenmaschinellen Lernens für Herausforderungen wie die beschleunigte molekulare Entdeckung und Modelle zur Vorhersage des Patientenrisikos.
  • Hochenergiephysik: bestehend aus Forschungseinrichtungen wie CERN und DESY, arbeitet daran, die am besten geeigneten Quantenberechnungen für Bereiche wie Fusionsmodellierung zu identifizieren.
  • Materialien: Angeführt von den Teams von Boeing, Bosch, The University of Chicago, Eiche Ridge National Lab, ExxonMobil und RIKEN wollen die besten Methoden zum Aufbau von Arbeitsabläufen für die Materialsimulation erforschen.
  • Optimierung: zielt darauf ab, eine Zusammenarbeit zwischen globalen Institutionen wie E.ON, Wells Fargo und anderen zu etablieren, um Fragen zu untersuchen, die die Identifizierung von Optimierungsproblemen vorantreiben, die sich am besten für Quantenvorteile in den Bereichen Nachhaltigkeit und Finanzen eignen.

Zeitstempel:

Mehr von Innerhalb HPC