Capítulo 19. MCMC
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Durante la mayor parte de este libro hemos estado utilizando métodos de rejilla para aproximar distribuciones posteriores. Para modelos con uno o dos parámetros, los algoritmos de rejilla son rápidos y los resultados son suficientemente precisos para la mayoría de los fines prácticos. Con tres parámetros, empiezan a ser lentos, y con más de tres no suelen ser prácticos.
En el capítulo anterior vimos que podemos resolver algunos problemas utilizando priores conjugados. Pero los problemas que podemos resolver de este modo suelen ser los mismos que podemos resolver con algoritmos de malla.
Para los problemas con más de unos pocos parámetros, la herramienta más potente que tenemos es MCMC, que significa "Markov chain Monte Carlo". En este contexto, "Montecarlo" se refiere a los métodos que generan muestras aleatorias a partir de una distribución. A diferencia de los métodos de cuadrícula, los métodos MCMC no intentan calcular la distribución posterior, sino que toman muestras de ella.
Puede parecer extraño que puedas generar una muestra sin calcular nunca la distribución, pero ésa es la magia de MCMC.
Para demostrarlo, empezaremos resolviendo el Problema de la Copa del Mundo. Sí, otra vez.
El problema de la Copa del Mundo
En el capítulo 8 modelamos los goles marcados en el fútbol(soccer) como un proceso de Poisson caracterizado por una tasa de goles, ...
Get Piensa en Bayes, 2ª Edición now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.