Generalização apesar do overfitting em modelos quânticos de aprendizado de máquina

Generalização apesar do overfitting em modelos quânticos de aprendizado de máquina

Generalização apesar do overfitting em modelos de aprendizado de máquina quântico PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Evan Peters1,2,3 e Maria Schuld4

1Departamento de Física, Universidade de Waterloo, Waterloo, ON, N2L 3G1, Canadá
2Instituto de Computação Quântica, Waterloo, ON, N2L 3G1, Canadá
3Perimeter Institute for Theoretical Physics, Waterloo, Ontario, N2L 2Y5, Canadá
4Xanadu, Toronto, ON, M5G 2C8, Canadá

Acha este artigo interessante ou deseja discutir? Scite ou deixe um comentário no SciRate.

Sumário

O sucesso generalizado das redes neurais profundas revelou uma surpresa no aprendizado de máquina clássico: modelos muito complexos geralmente generalizam bem e, ao mesmo tempo, ajustam demais os dados de treinamento. Este fenômeno de overfitting benigno foi estudado para uma variedade de modelos clássicos com o objetivo de compreender melhor os mecanismos por trás do aprendizado profundo. Caracterizar o fenômeno no contexto do aprendizado de máquina quântica pode igualmente melhorar nossa compreensão da relação entre sobreajuste, sobreparametrização e generalização. Neste trabalho, fornecemos uma caracterização do overfitting benigno em modelos quânticos. Para fazer isso, derivamos o comportamento de modelos clássicos de interpolação de características de Fourier para regressão em sinais ruidosos e mostramos como uma classe de modelos quânticos exibe características análogas, ligando assim a estrutura de circuitos quânticos (como codificação de dados e operações de preparação de estado ) à superparametrização e overfitting em modelos quânticos. Explicamos intuitivamente esses recursos de acordo com a capacidade do modelo quântico de interpolar dados ruidosos com comportamento localmente “pontual” e fornecer um exemplo concreto de demonstração de sobreajuste benigno.

► dados BibTeX

► Referências

[1] Michael A Nielsen. “Redes neurais e aprendizagem profunda”. Imprensa de determinação. (2015). url: http:/​/​neuralnetworksanddeeplearning.com/​.
http:/​/​neuralnetworksanddeeplearning.com/​

[2] Stuart Geman, Elie Bienenstock e René Doursat. “Redes neurais e o dilema viés/variância”. Computação Neural. 4, 1–58 (1992).
https://​/​doi.org/​10.1162/​neco.1992.4.1.1

[3] Trevor Hastie, Robert Tibshirani, Jerome H Friedman e Jerome H Friedman. “Os elementos da aprendizagem estatística: mineração de dados, inferência e previsão”. Volume 2. Springer. (2009).
https:/​/​doi.org/​10.1007/​978-0-387-84858-7

[4] Peter L. Bartlett, Andrea Montanari e Alexander Rakhlin. “Aprendizagem profunda: um ponto de vista estatístico”. Acta Numérica 30, 87–201 (2021).
https: / / doi.org/ 10.1017 / S0962492921000027

[5] Mikhail Belkin. “Ajuste sem medo: fenômenos matemáticos notáveis ​​de aprendizagem profunda através do prisma da interpolação”. Acta Numérica 30, 203–248 (2021).

[6] Peter L. Bartlett, Philip M. Long, Gábor Lugosi e Alexander Tsigler. “Sobreajuste benigno na regressão linear”. Processo. Nacional. Acad. Ciência. 117, 30063–30070 (2020).
https: / / doi.org/ 10.1073 / pnas.1907378117

[7] Mikhail Belkin, Daniel Hsu, Siyuan Ma e Soumik Mandal. “Reconciliando a prática moderna de aprendizado de máquina e a clássica compensação entre viés e variância”. Processo. Nacional. Acad. Ciência. 116, 15849–15854 (2019).
https: / / doi.org/ 10.1073 / pnas.1903070116

[8] Mikhail Belkin, Alexander Rakhlin e Alexandre B. Tsybakov. “A interpolação de dados contradiz a otimização estatística?”. Em Procedimentos de Pesquisa de Aprendizado de Máquina. Volume 89, páginas 1611–1619. PMLR (2019). url: https://​/​proceedings.mlr.press/​v89/​belkin19a.html.
https://​/​proceedings.mlr.press/​v89/​belkin19a.html

[9] Vidya Muthukumar, Kailas Vodrahalli, Vignesh Subramanian e Anant Sahai. “Interpolação inofensiva de dados ruidosos em regressão”. Jornal IEEE sobre Áreas Selecionadas na Teoria da Informação 1, 67–83 (2020).
https: / / doi.org/ 10.1109 / ISIT.2019.8849614

[10] Vidya Muthukumar, Adhyyan Narang, Vignesh Subramanian, Mikhail Belkin, Daniel Hsu e Anant Sahai. “Classificação vs regressão em regimes sobreparametrizados: a função de perda importa?”. J. Mach. Aprender. Res. 22, 1–69 (2021). URL: http://​/​jmlr.org/​papers/​v22/​20-603.html.
http: / / jmlr.org/ papers / v22 ​​/ 20-603.html

[11] Yehuda Dar, Vidya Muthukumar e Richard G. Baraniuk. “Um adeus à compensação entre viés e variância? uma visão geral da teoria do aprendizado de máquina superparametrizado” (2021). arXiv:2109.02355.
arXiv: 2109.02355

[12] Marcello Benedetti, Erika Lloyd, Stefan Sack e Mattia Fiorentini. “Circuitos quânticos parametrizados como modelos de aprendizado de máquina”. Ciência Quântica. Tecnologia. 4, 043001 (2019).
https:/​/​doi.org/​10.1088/​2058-9565/​ab4eb5

[13] K. Mitarai, M. Negoro, M. Kitagawa e K. Fujii. “Aprendizado de circuitos quânticos”. Física Rev. A 98, 032309 (2018).
https: / / doi.org/ 10.1103 / physreva.98.032309

[14] Maria Schuld, Ville Bergholm, Christian Gogolin, Josh Izaac e Nathan Killoran. “Avaliando gradientes analíticos em hardware quântico”. Física. Rev. A 99, 032331 (2019).
https: / / doi.org/ 10.1103 / physreva.99.032331

[15] Maria Schuld e Nathan Killoran. “Aprendizado de máquina quântica em espaços de recursos de Hilbert”. Física Rev. Lett. 122, 040504 (2019).
https: / / doi.org/ 10.1103 / physrevlett.122.040504

[16] Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow e Jay M. Gambetta. “Aprendizagem supervisionada com espaços de recursos aprimorados quântica”. Natureza 567, 209–212 (2019).
https:/​/​doi.org/​10.1038/​s41586-019-0980-2

[17] Seth Lloyd e Christian Weedbrook. “Aprendizagem adversária generativa quântica”. Física. Rev. 121, 040502 (2018).
https: / / doi.org/ 10.1103 / physrevlett.121.040502

[18] Pierre-Luc Dallaire-Demers e Nathan Killoran. “Redes adversárias geradoras quânticas”. Física. Rev. A 98, 012324 (2018).
https: / / doi.org/ 10.1103 / physreva.98.012324

[19] Amira Abbas, David Sutter, Christa Zoufal, Aurelien Lucchi, Alessio Figalli e Stefan Woerner. “O poder das redes neurais quânticas”. Nat. Computação. Ciência. 1, 403–409 (2021).
https:/​/​doi.org/​10.1038/​s43588-021-00084-1

[20] Logan G. Wright e Peter L. McMahon. “A capacidade das redes neurais quânticas”. Em 2020 Conferência sobre Lasers e Eletroóptica (CLEO). Páginas 1–2. (2020). url: https://​/​ieeexplore.ieee.org/​document/​9193529.
https: / / ieeexplore.ieee.org/ document / 9193529

[21] Sukin Sim, Peter D. Johnson e Alán Aspuru-Guzik. “Expressibilidade e capacidade de emaranhamento de circuitos quânticos parametrizados para algoritmos híbridos quânticos-clássicos”. Av. Tecnologia Quântica. 2, 1900070 (2019).
https: / / doi.org/ 10.1002 / qute.201900070

[22] Thomas Hubregtsen, Josef Pichlmeier, Patrick Stecher e Koen Bertels. “Avaliação de circuitos quânticos parametrizados: sobre a relação entre precisão de classificação, expressibilidade e capacidade de emaranhamento”. Máquina Quântica. Intel. 3, 1 (2021).
https: / / doi.org/ 10.1007 / s42484-021-00038-w

[23] Jarrod R McClean, Sergio Boixo, Vadim N Smelyanskiy, Ryan Babbush e Hartmut Neven. “Planaltos áridos em paisagens de treinamento de redes neurais quânticas”. Nat. Comum. 9, 4812 (2018).
https:/​/​doi.org/​10.1038/​s41467-018-07090-4

[24] Marco Cerezo, Akira Sone, Tyler Volkoff, Lukasz Cincio e Patrick J Coles. “Planaltos estéreis dependentes da função de custo em circuitos quânticos rasos parametrizados”. Nat. Comum. 12, 1791 (2021).
https: / / doi.org/ 10.1038 / s41467-021-21728-w

[25] Matthias C. Caro, Elies Gil-Fuster, Johannes Jakob Meyer, Jens Eisert e Ryan Sweke. “Limites de generalização dependentes de codificação para circuitos quânticos parametrizados”. Quântico 5, 582 (2021).
https:/​/​doi.org/​10.22331/​q-2021-11-17-582

[26] Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven e Jarrod R McClean. “Poder dos dados no aprendizado de máquina quântica”. Nat. Comum. 12, 2631 (2021).
https:/​/​doi.org/​10.1038/​s41467-021-22539-9

[27] Matthias C. Caro, Hsin-Yuan Huang, M. Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio e Patrick J. Coles. “Generalização em aprendizado de máquina quântica a partir de poucos dados de treinamento”. Nat. Comum. 13, 4919 (2022).
https:/​/​doi.org/​10.1038/​s41467-022-32550-3

[28] Leonardo Banchi, Jason Pereira e Stefano Pirandola. “Generalização no aprendizado de máquina quântica: um ponto de vista da informação quântica”. PRX Quantum 2, 040321 (2021).
https: / / doi.org/ 10.1103 / PRXQuantum.2.040321

[29] Francisco Javier Gil Vidal e Dirk Oliver Theis. “Redundância de entrada para circuitos quânticos parametrizados”. Frente. Física. 8 (297).
https: / / doi.org/ 10.3389 / fphy.2020.00297

[30] Maria Schuld, Ryan Sweke e Johannes Jakob Meyer. “Efeito da codificação de dados no poder expressivo de modelos variacionais de aprendizado de máquina quântica”. Física. Rev.A 103, 032430 (2021).
https: / / doi.org/ 10.1103 / physreva.103.032430

[31] David Wierichs, Josh Izaac, Cody Wang e Cedric Yen-Yu Lin. “Regras gerais de mudança de parâmetros para gradientes quânticos”. Quântico 6, 677 (2022).
https:/​/​doi.org/​10.22331/​q-2022-03-30-677

[32] Kendall E Atkinson. “Uma introdução à análise numérica”. John Wiley e Filhos. (2008).

[33] Ali Rahimi e Benjamin Recht. “Recursos aleatórios para máquinas kernel de grande escala”. Em Avanços em Sistemas de Processamento de Informação Neural. Volume 20. (2007). url: https:/​/​papers.nips.cc/​paper_files/​paper/​2007/​hash/​013a006f03dbc5392effeb8f18fda755-Abstract.html.
https:/​/​papers.nips.cc/​paper_files/​paper/​2007/​hash/​013a006f03dbc5392effeb8f18fda755-Abstract.html

[34] Walter Rudin. “Os teoremas básicos da análise de Fourier”. (1990).
https: / / doi.org/ 10.1002 / 9781118165621.ch1

[35] Song Mei e Andrea Montanari. “O erro de generalização da regressão de características aleatórias: assintótica precisa e a curva dupla descendente”. Comum. Aplicação Pura. Matemática. 75, 667–766 (2022).
https: / / doi.org/ 10.1002 / cpa.22008

[36] Trevor Hastie, Andrea Montanari, Saharon Rosset e Ryan J. Tibshirani. “Surpresas na interpolação de mínimos quadrados sem cristas de alta dimensão”. Ana. Estado. 50 – 949 (986).
https: / / doi.org/ 10.1214 / 21-AOS2133

[37] Tengyuan Liang, Alexander Rakhlin e Xiyu Zhai. “Sobre a descida múltipla de interpolantes de norma mínima e isometria inferior restrita de grãos”. Em Procedimentos de Pesquisa de Aprendizado de Máquina. Volume 125, páginas 1–29. PMLR (2020). url: http:/​/​proceedings.mlr.press/​v125/​liang20a.html.
http://​/​proceedings.mlr.press/​v125/​liang20a.html

[38] Edward Farhi e Hartmut Neven. “Classificação com redes neurais quânticas em processadores de curto prazo” (2018). arXiv:1802.06002.
arXiv: 1802.06002

[39] Maria Schuld, Alex Bocharov, Krysta M. Svore e Nathan Wiebe. “Classificadores quânticos centrados em circuito”. Física. Rev.A 101, 032308 (2020).
https: / / doi.org/ 10.1103 / physreva.101.032308

[40] Adrián Pérez-Salinas, Alba Cervera-Lierta, Elies Gil-Fuster e José I. Latorre. “Reenvio de dados para um classificador quântico universal”. Quântico 4, 226 (2020).
https:/​/​doi.org/​10.22331/​q-2020-02-06-226

[41] Sofiene Jerbi, Lukas J Fiderer, Hendrik Poulsen Nautrup, Jonas M Kübler, Hans J Briegel e Vedran Dunjko. “Aprendizado de máquina quântica além dos métodos de kernel”. Nat. Comum. 14 (517).
https: / / doi.org/ 10.1038 / s41467-023-36159-y

[42] Casper Gyurik, Dyon Vreumingen, van e Vedran Dunjko. “Minimização de risco estrutural para classificadores lineares quânticos”. Quântico 7, 893 (2023).
https:/​/​doi.org/​10.22331/​q-2023-01-13-893

[43] Maria Schuld. “Modelos de aprendizado de máquina quântica supervisionados são métodos de kernel” (2021). arXiv:2101.11020.
arXiv: 2101.11020

[44] S. Shin, YS Teo e H. Jeong. “Codificação de dados exponenciais para aprendizagem supervisionada quântica”. Física. Rev. A 107, 012422 (2023).
https: / / doi.org/ 10.1103 / PhysRevA.107.012422

[45] Sofia Piccard. “Sur les conjuntos de distâncias de conjuntos de pontos de um espaço euclidiano.”. Memórias da Universidade de Neuchatel. Secretaria de l'Université. (1939).

[46] Dave Wecker, Matthew B. Hastings, Nathan Wiebe, Bryan K. Clark, Chetan Nayak e Matthias Troyer. “Resolvendo modelos de elétrons fortemente correlacionados em um computador quântico”. Física. Rev. A 92, 062318 (2015).
https: / / doi.org/ 10.1103 / PhysRevA.92.062318

[47] Ian D. Kivlichan, Jarrod McClean, Nathan Wiebe, Craig Gidney, Alán Aspuru-Guzik, Garnet Kin-Lic Chan e Ryan Babbush. “Simulação quântica de estrutura eletrônica com profundidade linear e conectividade”. Física Rev. Lett. 120, 110501 (2018).
https: / / doi.org/ 10.1103 / PhysRevLett.120.110501

[48] Martín Larocca, Frédéric Sauvage, Faris M. Sbahi, Guillaume Verdon, Patrick J. Coles e M. Cerezo. “Aprendizado de máquina quântica invariante de grupo”. PRX Quantum 3, 030341 (2022).
https: / / doi.org/ 10.1103 / PRXQuantum.3.030341

[49] Johannes Jakob Meyer, Marian Mularski, Elies Gil-Fuster, Antonio Anna Mele, Francesco Arzani, Alissa Wilms e Jens Eisert. “Explorando a simetria no aprendizado de máquina quântica variacional”. PRX Quantum 4, 010328 (2023).
https: / / doi.org/ 10.1103 / PRXQuantum.4.010328

[50] Martin Larocca, Nathan Ju, Diego García-Martín, Patrick J Coles e Marco Cerezo. “Teoria da superparametrização em redes neurais quânticas”. Nat. Computação. Ciência. 3, 542–551 (2023).
https:/​/​doi.org/​10.1038/​s43588-023-00467-6

[51] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu e Dacheng Tao. “Poder expressivo de circuitos quânticos parametrizados”. Física. Rev. 2, 033125 (2020).
https: / / doi.org/ 10.1103 / physrevresearch.2.033125

[52] Zoe Holmes, Kunal Sharma, M. Cerezo e Patrick J. Coles. “Conectando a expressibilidade ansatz a magnitudes de gradiente e planaltos estéreis”. PRX Quantum 3, 010313 (2022).
https: / / doi.org/ 10.1103 / PRXQuantum.3.010313

[53] Samson Wang, Enrico Fontana, Marco Cerezo, Kunal Sharma, Akira Sone, Lukasz Cincio e Patrick J Coles. “Platôs estéreis induzidos por ruído em algoritmos quânticos variacionais”. Nat. Comum. 12, 6961 (2021).
https:/​/​doi.org/​10.1038/​s41467-021-27045-6

[54] Abdulkadir Canatar, Evan Peters, Cengiz Pehlevan, Stefan M. Wild e Ruslan Shaydulin. “A largura de banda permite generalização em modelos de kernel quântico”. Transações em pesquisa de aprendizado de máquina (2023). url: https://​/​openreview.net/​forum?id=A1N2qp4yAq.
https://​/​openreview.net/​forum?id=A1N2qp4yAq

[55] Hsin-Yuan Huang, Michael Broughton, Jordan Cotler, Sitan Chen, Jerry Li, Masoud Mohseni, Hartmut Neven, Ryan Babbush, Richard Kueng, John Preskill e Jarrod R. McClean. “Vantagem quântica em aprender com experimentos”. Ciência 376, 1182–1186 (2022).
https://​/​doi.org/​10.1126/​science.abn7293

[56] Sitan Chen, Jordan Cotler, Hsin-Yuan Huang e Jerry Li. “Separações exponenciais entre aprendizagem com e sem memória quântica”. Em 2021, 62º Simpósio Anual IEEE sobre Fundamentos da Ciência da Computação (FOCS). Páginas 574–585. (2022).
https: / / doi.org/ 10.1109 / FOCS52979.2021.00063

[57] Hsin-Yuan Huang, Richard Kueng e John Preskill. “Limites da teoria da informação sobre a vantagem quântica no aprendizado de máquina”. Física. Rev. 126, 190505 (2021).
https: / / doi.org/ 10.1103 / PhysRevLett.126.190505

[58] Ville Bergholm, Josh Izaac, Maria Schuld, Christian Gogolin, M. Sohaib Alam, Shahnawaz Ahmed, Juan Miguel Arrazola, Carsten Blank, Alain Delgado, Soran Jahangiri, Keri McKiernan, Johannes Jakob Meyer, Zeyue Niu, Antal Száva e Nathan Killoran. “Pennylane: Diferenciação automática de computações quânticas clássicas híbridas” (2018). arXiv:1811.04968.
arXiv: 1811.04968

[59] Peter L. Bartlett, Philip M. Long, Gábor Lugosi e Alexander Tsigler. “Sobreajuste benigno na regressão linear”. Processo. Nacional. Acad. Ciência. 117, 30063–30070 (2020).
https: / / doi.org/ 10.1073 / pnas.1907378117

[60] Vladimir Koltchinskii e Karim Lounici. “Desigualdades de concentração e limites de momento para operadores de covariância amostral”. Bernoulli 23, 110 – 133 (2017).
https:///​doi.org/​10.3150/​15-BEJ730

[61] Zbigniew Puchała e Jarosław Adam Miszczak. “Integração simbólica em relação à medida haar no grupo unitário”. Touro. Pol. Acad. Ciência. 65, 21–27 (2017).
https: / / doi.org/ 10.1515 / bpasts-2017-0003

[62] Daniel A. Roberts e Beni Yoshida. “Caos e complexidade por design”. J. Física de alta energia. 2017, 121 (2017).
https: / / doi.org/ 10.1007 / jhep04 (2017) 121

[63] Wallace C. Babcock. “Interferência de intermodulação em sistemas de rádio frequência de ocorrência e controle por seleção de canal”. Sistema Bell. tecnologia. j. 32, 63–73 (1953).
https: / / doi.org/ 10.1002 / j.1538-7305.1953.tb01422.x

[64] M. Atkinson, N. Santoro e J. Urrutia. “Conjuntos inteiros com somas e diferenças distintas e atribuições de frequência portadora para repetidores não lineares”. IEEE Trans. Comum. 34, 614–617 (1986).
https://​/​doi.org/​10.1109/​TCOM.1986.1096587

[65] J. Robinson e A. Bernstein. “Uma classe de códigos binários recorrentes com propagação de erros limitada”. IEEE Trans. Inf. 13, 106–113 (1967).
https: / / doi.org/ 10.1109 / TIT.1967.1053951

[66] RJF Fang e WA Sandrin. “Atribuição de frequência portadora para repetidores não lineares”. Revisão Técnica COMSAT 7, 227–245 (1977).

Citado por

[1] Alexey Melnikov, Mohammad Kordzanganeh, Alexander Alodjants e Ray-Kuang Lee, “Aprendizado de máquina quântica: da física à engenharia de software”, Avanços na Física X 8 1, 2165452 (2023).

[2] Mo Kordzanganeh, Pavel Sekatski, Leonid Fedichkin e Alexey Melnikov, “Uma família de circuitos quânticos universais em crescimento exponencial”, Aprendizado de Máquina: Ciência e Tecnologia 4 3, 035036 (2023).

[3] Stefano Mangini, “Algoritmos quânticos variacionais para aprendizado de máquina: teoria e aplicações”, arXiv: 2306.09984, (2023).

[4] Ben Jaderberg, Antonio A. Gentile, Youssef Achari Berrada, Elvira Shishenina e Vincent E. Elfving, “Deixe as redes neurais quânticas escolherem suas próprias frequências”, arXiv: 2309.03279, (2023).

[5] Yuxuan Du, Yibo Yang, Dacheng Tao e Min-Hsiu Hsieh, “Poder Dependente do Problema de Redes Neurais Quânticas na Classificação Multiclasse”, Cartas de Revisão Física 131 14, 140601 (2023).

[6] S. Shin, Y. S. Teo e H. Jeong, “Codificação de dados exponenciais para aprendizagem supervisionada quântica”, Revisão Física A 107 1, 012422 (2023).

[7] Elies Gil-Fuster, Jens Eisert e Carlos Bravo-Prieto, “Compreender o aprendizado de máquina quântica também requer repensar a generalização”, arXiv: 2306.13461, (2023).

[8] Jason Iaconis e Sonika Johri, “Carregamento eficiente de imagens quânticas baseado em rede tensor”, arXiv: 2310.05897, (2023).

[9] Alice Barthe e Adrián Pérez-Salinas, “Gradientes e perfis de frequência de modelos de reenvio quântico”, arXiv: 2311.10822, (2023).

[10] Tobias Haug e MS Kim, “Generalização com geometria quântica para aprendizagem unitária”, arXiv: 2303.13462, (2023).

[11] Jonas Landman, Slimane Thabet, Constantin Dalyac, Hela Mhiri e Elham Kashefi, “Classicamente Aproximando Aprendizado de Máquina Quântica Variacional com Recursos Aleatórios de Fourier”, arXiv: 2210.13200, (2022).

[12] Berta Casas e Alba Cervera-Lierta, “Série multidimensional de Fourier com circuitos quânticos”, Revisão Física A 107 6, 062612 (2023).

[13] Elies Gil-Fuster, Jens Eisert e Vedran Dunjko, “Sobre a expressividade da incorporação de kernels quânticos”, arXiv: 2309.14419, (2023).

[14] Lucas Slattery, Ruslan Shaydulin, Shouvanik Chakrabarti, Marco Pistoia, Sami Khairy e Stefan M. Wild, “Evidência numérica contra vantagem com núcleos de fidelidade quântica em dados clássicos”, Revisão Física A 107 6, 062417 (2023).

[15] Mo Kordzanganeh, Daria Kosichkina e Alexey Melnikov, “Redes Híbridas Paralelas: uma interação entre redes neurais quânticas e clássicas”, arXiv: 2303.03227, (2023).

[16] Aikaterini, Gratsea e Patrick Huembeli, “O efeito dos operadores de processamento e medição no poder expressivo dos modelos quânticos”, arXiv: 2211.03101, (2022).

[17] Shun Okumura e Masayuki Ohzeki, “Coeficiente de Fourier de circuitos quânticos parametrizados e problema do platô estéril”, arXiv: 2309.06740, (2023).

[18] Massimiliano Incudini, Michele Grossi, Antonio Mandarino, Sofia Vallecorsa, Alessandra Di Pierro e David Windridge, “O kernel do caminho quântico: um kernel tangente neural quântico generalizado para aprendizado de máquina quântico profundo”, arXiv: 2212.11826, (2022).

[19] Jorja J. Kirk, Matthew D. Jackson, Daniel J. M. King, Philip Intallura e Mekena Metcalf, “Ordem Emergente em Representações de Dados Clássicas em Modelos de Spin de Ising”, arXiv: 2303.01461, (2023).

[20] Francesco Scala, Andrea Ceschini, Massimo Panella e Dario Gerace, “Uma abordagem geral para o abandono em redes neurais quânticas”, arXiv: 2310.04120, (2023).

[21] Julian Berberich, Daniel Fink, Daniel Pranjić, Christian Tutschku e Christian Holm, “Treinamento de modelos quânticos robustos e generalizáveis”, arXiv: 2311.11871, (2023).

As citações acima são de SAO / NASA ADS (última atualização com êxito 2023-12-21 00:40:54). A lista pode estar incompleta, pois nem todos os editores fornecem dados de citação adequados e completos.

On Serviço citado por Crossref nenhum dado sobre a citação de trabalhos foi encontrado (última tentativa 2023-12-21 00:40:53).

Carimbo de hora:

Mais de Diário Quântico