Quantum Lazy Training

Quantum Lazy Training

Quantum Lazy Training PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Erfan Abedi, Salman Beigi és Leila Taghavi

QuOne Lab, Phanous Kutatási és Innovációs Központ, Teherán, Irán

Érdekesnek találja ezt a cikket, vagy szeretne megvitatni? Scite vagy hagyjon megjegyzést a SciRate-en.

Absztrakt

A túlparaméterezett modellfüggvények gradiens süllyedés útján történő betanítása során előfordul, hogy a paraméterek nem változnak jelentősen, és közel maradnak a kezdeti értékükhöz. Ezt a jelenséget $textit{lusta képzés}$-nak hívják, és a modellfüggvény lineáris közelítésének figyelembevételét motiválja a kezdeti paraméterek körül. A lusta rendszerben ez a lineáris közelítés annak a paraméterezett függvénynek a viselkedését imitálja, amelyhez társított kernel, a $textit{tangent kernel}$ határozza meg a modell betanítási teljesítményét. A nagy szélességű (klasszikus) neurális hálózatok esetében ismert a lusta képzés. Ebben a cikkben megmutatjuk, hogy a $textit{geometrikusan lokális}$ paraméterezett kvantumáramkörök betanítása nagyszámú qubit esetén a lusta rezsimbe lép. Pontosabban, határokat bizonyítunk egy ilyen geometriailag lokális paraméterezett kvantumáramkör paramétereinek változási sebességére a betanítási folyamatban, és a kapcsolódó kvantummodell-függvény lineáris közelítésének pontosságára; a qubitek számának növekedésével mindkét korlát nullára irányul. Analitikai eredményeinket numerikus szimulációkkal támasztjuk alá.

► BibTeX adatok

► Referenciák

[1] John Preskill. Kvantumszámítástechnika a NISQ-korszakban és azon túl. Quantum, 2:79, 2018. doi: 10.22331/q-2018-08-06-79.
https:/​/​doi.org/​10.22331/​q-2018-08-06-79

[2] Marco Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C Benjamin, Suguru Endo, Keisuke Fujii, Jarrod R McClean, Kosuke Mitarai, Xiao Yuan, Lukasz Cincio és mások. Variációs kvantum algoritmusok. Nature Reviews Physics, 3(9):625–644, 2021. doi:10.1038/​s42254-021-00348-9.
https:/​/​doi.org/​10.1038/​s42254-021-00348-9

[3] Jarrod R McClean, Sergio Boixo, Vadim N Smelyanskiy, Ryan Babbush és Hartmut Neven. Kopár fennsíkok kvantum-neurális hálózatok képzési tájain. Nature Communications, 9(1):1–6, 2018. doi:10.1038/​s41467-018-07090-4.
https:/​/​doi.org/​10.1038/​s41467-018-07090-4

[4] Samson Wang, Enrico Fontana, Marco Cerezo, Kunal Sharma, Akira Sone, Lukasz Cincio és Patrick J Coles. Zaj-indukált kopár fennsíkok variációs kvantum algoritmusokban. Nature Communications, 12(1):1–11, 2021. doi:10.1038/​s41467-021-27045-6.
https:/​/​doi.org/​10.1038/​s41467-021-27045-6

[5] Francis Bach. Könnyed optimalizálás a gradiens folyamokon keresztül. https://​/​francisbach.com/​gradient-flows.
https://​/​francisbach.com/​gradient-flows

[6] Arthur Jacot, Franck Gabriel és Clément Hongler. Neurális érintő kernel: Konvergencia és általánosítás neurális hálózatokban. Fejlődés a neurális információfeldolgozó rendszerekben (NeurIPS 2018), 31:8571–8580, 2018. doi:10.1145/​3406325.3465355.
https://​/​doi.org/​10.1145/​3406325.3465355

[7] Lenaic Chizat, Edouard Oyallon és Francis Bach. A differenciálható programozás lusta képzéséről. A neurális információfeldolgozási rendszerek fejlődése, 32. 2019.

[8] Kouhei Nakaji, Hiroyuki Tezuka és Naoki Yamamoto. Kvantumnövelt neurális hálózatok a neurális tangens kernel keretrendszerben. 2021. arXiv:2109.03786.
arXiv: 2109.03786

[9] Norihito Shirai, Kenji Kubo, Kosuke Mitarai és Keisuke Fujii. Kvantum tangens kernel. 2021. arXiv:2111.02951.
arXiv: 2111.02951

[10] Maria Schuld és Nathan Killoran. Kvantumgépi tanulás jellemző hilbert terekben. Phys. Rev. Lett., 122:040504, 2019. február. doi:10.1103/​PhysRevLett.122.040504.
https://​/​doi.org/​10.1103/​PhysRevLett.122.040504

[11] Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow és Jay M. Gambetta. Felügyelt tanulás kvantum-bővített funkcióterekkel. Nature, 567(7747):209–212, 2019. március. doi:10.1038/​s41586-019-0980-2.
https:/​/​doi.org/​10.1038/​s41586-019-0980-2

[12] Junyu Liu, Francesco Tacchino, Jennifer R. Glick, Liang Jiang és Antonio Mezzacapo. Ábrázolástanulás kvantum-neurális tangens kerneleken keresztül. PRX Quantum, 3:030323, 2022. doi:10.1103/​PRXQuantum.3.030323.
https://​/​doi.org/​10.1103/​PRXQuantum.3.030323

[13] Di Luo és James Halverson. Végtelen neurális hálózat kvantumállapotai. 2021. arXiv:2112.00723.
arXiv: 2112.00723

[14] Junyu Liu, Khadijeh Najafi, Kunal Sharma, Francesco Tacchino, Liang Jiang és Antonio Mezzacapo. Analitikus elmélet széles kvantum-neurális hálózatok dinamikájára. Phys. Rev. Lett., 130(15):150601, 2023. doi:10.1103/​PhysRevLett.130.150601.
https://​/​doi.org/​10.1103/​PhysRevLett.130.150601

[15] Junyu Liu, Zexi Lin és Liang Jiang. Lustaság, kopár fennsík és zaj a gépi tanulásban, 2022. doi:10.48550/​arXiv.2206.09313.
https://​/​doi.org/​10.48550/​arXiv.2206.09313

[16] Edward Farhi és Hartmut Neven. Osztályozás kvantumneurális hálózatokkal rövid távú processzorokon. 2018. arXiv:1802.06002.
arXiv: 1802.06002

[17] M. Cerezo, Akira Sone, Tyler Volkoff, Lukasz Cincio és Patrick J. Coles. Költségfüggvénytől függő kopár platók sekély parametrizált kvantumáramkörökben. Nature Communications, 12(1):1791, 2021. doi:10.1038/​s41467-021-21728-w.
https://​/​doi.org/​10.1038/​s41467-021-21728-w

[18] Adrián Pérez-Salinas, Alba Cervera-Lierta, Elies Gil-Fuster és José I. Latorre. Adatok újrafeltöltése egy univerzális kvantumosztályozóhoz. Quantum, 4:226, 2020. doi: 10.22331/q-2020-02-06-226.
https:/​/​doi.org/​10.22331/​q-2020-02-06-226

[19] Maria Schuld, Ryan Sweke és Johannes Jakob Meyer. Az adatkódolás hatása a variációs kvantum-gépi tanulási modellek kifejező erejére. Phys. Rev. A, 103:032430, 2021. március doi:10.1103/​PhysRevA.103.032430.
https://​/​doi.org/​10.1103/​PhysRevA.103.032430

[20] Colin McDiarmid. A korlátos különbségek módszeréről. In Surveys in kombinatorics, 1989 (Norwich, 1989), London Math, 141. kötet. Soc. Előadási jegyzet szer., 148–188. Cambridge Univ. Press, Cambridge, 1989. doi: 10.1017/​cbo9781107359949.008.
https://​/​doi.org/​10.1017/​cbo9781107359949.008

[21] Ville Bergholm, Josh Izaac, Maria Schuld, Christian Gogolin, M Sohaib Alam, Shahnawaz Ahmed, Juan Miguel Arrazola, Carsten Blank, Alain Delgado, Soran Jahangiri és mások. Pennylane: Hibrid kvantum-klasszikus számítások automatikus differenciálása. 2018. arXiv:1811.04968.
arXiv: 1811.04968

[22] Kerstin Beer, Dmytro Bondarenko, Terry Farrelly, Tobias J Osborne, Robert Salzmann, Daniel Scheiermann és Ramona Wolf. Mélykvantum neurális hálózatok képzése. Nature Communications, 11(1):1–6, 2020. doi:10.1038/​s41467-020-14454-2.
https:/​/​doi.org/​10.1038/​s41467-020-14454-2

Idézi

[1] Junyu Liu, Zexi Lin és Liang Jiang, „Laziness, Barren Plateau, and Noise in Machine Learning”, arXiv: 2206.09313, (2022).

[2] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu, Shan You és Dacheng Tao, „Erratum: Learnability of Quantum Neural Networks [PRX QUANTUM 2, 040337 (2021)]”, PRX Quantum 3 3, 030901 (2022).

A fenti idézetek innen származnak SAO/NASA HIRDETÉSEK (utolsó sikeres frissítés: 2023-04-27 12:25:17). Előfordulhat, hogy a lista hiányos, mivel nem minden kiadó ad megfelelő és teljes hivatkozási adatokat.

Nem sikerült lekérni Az adatok által hivatkozott kereszthivatkozás utolsó próbálkozáskor 2023-04-27 12:25:15: Nem sikerült lekérni a 10.22331/q-2023-04-27-989 hivatkozás által hivatkozott adatokat a Crossref-től. Ez normális, ha a DOI-t nemrég regisztrálták.

Időbélyeg:

Még több Quantum Journal