Cadena de Màrkov Monte Carlo
En estadística, els mètodes de la cadena de Màrkov Monte Carlo (amb acrònim anglès MCMC) comprenen una classe d'algorismes per al mostreig a partir d'una distribució de probabilitat. Construint una cadena de Màrkov que tingui la distribució desitjada com a distribució d'equilibri, es pot obtenir una mostra de la distribució desitjada registrant els estats de la cadena. Com més passos s'incloguin, més s'ajusta la distribució de la mostra a la distribució desitjada real. Existeixen diversos algorismes per construir cadenes, inclòs l'algoritme Metropolis–Hastings.[1]
Els mètodes MCMC s'utilitzen principalment per calcular aproximacions numèriques d'integrals multidimensionals, per exemple en l'estadística bayesiana, la física computacional,[2] la biologia computacional [3] i la lingüística computacional.[4][5]
En l'estadística bayesiana, el desenvolupament recent dels mètodes MCMC ha permès calcular grans models jeràrquics que requereixen integracions de centenars a milers de paràmetres desconeguts.[6]
En el mostreig d'esdeveniments rars, també s'utilitzen per generar mostres que omplin gradualment la regió de fallades rares.
Els mètodes de Montecarlo de la cadena de Màrkov creen mostres a partir d'una variable aleatòria contínua, amb una densitat de probabilitat proporcional a una funció coneguda. Aquestes mostres es poden utilitzar per avaluar una integral sobre aquesta variable, com el seu valor esperat o variància.
Si bé els mètodes MCMC es van crear per abordar problemes multidimensionals millor que els algorismes genèrics de Montecarlo, quan el nombre de dimensions augmenta, també tendeixen a patir la maledicció de la dimensionalitat: les regions de més probabilitat tendeixen a estirar-se i perdre's en un volum creixent d'espai. que contribueix poc a la integral. Una manera d'abordar aquest problema podria ser escurçant els passos del caminant, de manera que no intenti sortir contínuament de la regió de més probabilitat, tot i que d'aquesta manera el procés seria molt autocorrelacionat i costós (és a dir, es necessitarien molts passos per a un resultat precís). Mètodes més sofisticats com el Monte Carlo Hamiltonià i l'algorisme de Wang i Landau utilitzen diverses maneres de reduir aquesta autocorrelació, alhora que aconsegueixen mantenir el procés en les regions que donen una contribució més alta a la integral. Aquests algorismes solen basar-se en una teoria més complicada i són més difícils d'implementar, però solen convergir més ràpidament.
Referències
[modifica]- ↑ «Markov Chain Monte Carlo | Columbia Public Health» (en anglès). https://www.publichealth.columbia.edu.+[Consulta: 4 gener 2023].
- ↑ Kasim, M.F.; Bott, A.F.A.; Tzeferacos, P.; Lamb, D.Q.; Gregori, G. Physical Review E, 100, 3, 9-2019, pàg. 033208. arXiv: 1905.12934. Bibcode: 2019PhRvE.100c3208K. DOI: 10.1103/PhysRevE.100.033208. PMID: 31639953.
- ↑ Gupta, Ankur; Rawlings, James B. AIChE Journal, 60, 4, 4-2014, pàg. 1253–1268. DOI: 10.1002/aic.14409. PMC: 4946376. PMID: 27429455.
- ↑ See Gill 2008.
- ↑ See Robert & Casella 2004.
- ↑ Banerjee, Sudipto. Hierarchical Modeling and Analysis for Spatial Data (en anglès). Second. CRC Press, 2014-09-12, p. xix. ISBN 978-1-4398-1917-3.