I 2020 utførte det Oxford-baserte Quantinuum-teamet Quantum Natural Language Processing (QNLP) på IBMs kvantemaskinvare [1, 2]. Nøkkelen til å ha vært i stand til å oppnå det som er tenkt som en tungt datadrevet oppgave, er observasjonen at kvanteteori og naturlig språk er styrt av mye av den samme komposisjonsstrukturen – også kjent som tensorstruktur.
Derfor er språkmodellen vår på en måte kvanteinnfødt, og vi gir en analogi med simulering av kvantesystemer når det gjelder algoritmisk fremskyndelse [forestående]. I mellomtiden har vi gjort all vår programvare tilgjengelig åpen kildekode, og med støtte [github.com/CQCL/lambeq].
Det komposisjonelle samsvaret mellom naturlig språk og kvante strekker seg til andre domener enn språk, og argumenterer for at en ny generasjon AI kan dukke opp når man fullt ut presser denne analogien, samtidig som man utnytter fullstendigheten til kategorisk kvantemekanikk / ZX-kalkulus [3, 4, 5] for nye resonnementformål som går hånd i hånd med moderne maskinlæring.
[Innebygd innhold]