I 2020 udførte det Oxford-baserede Quantinuum-team Quantum Natural Language Processing (QNLP) på IBM quantum hardware [1, 2]. Nøglen til at have været i stand til at opnå, hvad der er opfattet som en stærkt datadrevet opgave, er observationen af, at kvanteteori og naturligt sprog er styret af meget af den samme kompositionsstruktur - også kaldet tensorstruktur.
Derfor er vores sprogmodel på en måde kvante-native, og vi giver en analogi med simulering af kvantesystemer i form af algoritmisk fremskyndelse [forestående]. I mellemtiden har vi gjort al vores software tilgængelig open source og med support [github.com/CQCL/lambeq].
Det kompositoriske match mellem naturligt sprog og kvante strækker sig til andre domæner end sprog, og argumenterer for, at en ny generation af AI kan dukke op, når man fuldt ud skubber denne analogi, mens man udnytter fuldstændigheden af den kategoriske kvantemekanik / ZX-regning [3, 4, 5] til nye ræsonnementsformål, der går hånd i hånd med moderne maskinlæring.
[Indlejret indhold]