W 2020 roku zespół Quantinuum z Oksfordu wykonał Quantum Natural Language Processing (QNLP) na sprzęcie kwantowym IBM [1, 2]. Kluczem do osiągnięcia tego, co uważa się za zadanie silnie oparte na danych, jest obserwacja, że teorią kwantową i językiem naturalnym rządzi w dużej mierze ta sama struktura kompozycyjna – czyli struktura tensorowa.
Stąd nasz model językowy jest w pewnym sensie kwantowo-natywny i podajemy analogię z symulacją systemów kwantowych pod względem przyspieszenia algorytmicznego [w przygotowaniu]. W międzyczasie udostępniliśmy całe nasze oprogramowanie jako open source i ze wsparciem [github.com/CQCL/lambeq].
Dopasowanie kompozycyjne między językiem naturalnym a kwantami rozciąga się na inne dziedziny niż język i argumentuje, że nowa generacja sztucznej inteligencji może wyłonić się, gdy w pełni forsuje tę analogię, wykorzystując kompletność mechaniki kwantowej / rachunku ZX [3, 4, 5] dla nowatorskich celów rozumowania, które idą w parze z nowoczesnym uczeniem maszynowym.
[Osadzone treści]