Im Jahr 2020 führte das in Oxford ansässige Quantinuum-Team Quantum Natural Language Processing (QNLP) auf IBM-Quantenhardware durch [1, 2]. Der Schlüssel zum Erreichen dieser stark datengesteuerten Aufgabe ist die Beobachtung, dass die Quantentheorie und die natürliche Sprache weitgehend von der gleichen Kompositionsstruktur – auch bekannt als Tensorstruktur – bestimmt werden.
Daher ist unser Sprachmodell in gewissem Sinne quantennativ, und wir stellen eine Analogie zur Simulation von Quantensystemen in Bezug auf die algorithmische Beschleunigung [in Kürze] bereit. Inzwischen haben wir unsere gesamte Software Open Source und mit Support [github.com/CQCL/lambeq] zur Verfügung gestellt.
Die kompositorische Übereinstimmung zwischen natürlicher Sprache und Quanten erstreckt sich auf andere Bereiche als die Sprache und argumentiert, dass eine neue Generation von KI entstehen kann, wenn diese Analogie vollständig vorangetrieben wird, während die Vollständigkeit der kategorialen Quantenmechanik / des ZX-Kalküls ausgenutzt wird [3, 4, 5]. für neuartige Argumentationszwecke, die Hand in Hand mit modernem maschinellem Lernen gehen.
[Eingebetteten Inhalt]