År 2020 utförde det Oxford-baserade Quantinuum-teamet Quantum Natural Language Processing (QNLP) på IBMs kvanthårdvara [1, 2]. Nyckeln till att ha kunnat uppnå vad som är tänkt som en tungt datadriven uppgift är observationen att kvantteorin och naturligt språk styrs av mycket av samma kompositionsstruktur – aka tensorstruktur.
Därför är vår språkmodell i viss mening kvantinfödd, och vi tillhandahåller en analogi med simulering av kvantsystem när det gäller algoritmisk påskyndning [kommande]. Samtidigt har vi gjort all vår mjukvara tillgänglig med öppen källkod och med support [github.com/CQCL/lambeq].
Den sammansättningsmässiga matchningen mellan naturligt språk och kvantum sträcker sig till andra domäner än språk, och hävdar att en ny generation av AI kan uppstå när man fullt ut driver denna analogi, samtidigt som man utnyttjar fullständigheten i den kategoriska kvantmekaniken / ZX-kalkylen [3, 4, 5] för nya resonemangsändamål som går hand i hand med modern maskininlärning.
[Inbäddat innehåll]