Kapitel 19. MCMC

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Die meiste Zeit dieses Buches haben wir Rasterverfahren zur Annäherung an posteriore Verteilungen verwendet. Bei Modellen mit einem oder zwei Parametern sind die Gitteralgorithmen schnell und die Ergebnisse sind für die meisten praktischen Zwecke genau genug. Bei drei Parametern werden sie langsam, und bei mehr als drei Parametern sind sie in der Regel unpraktisch.

Im vorherigen Kapitel haben wir gesehen, dass wir einige Probleme mit konjugierten Prioren lösen können. Aber die Probleme, die wir auf diese Weise lösen können, sind in der Regel dieselben, die wir auch mit Gitteralgorithmen lösen können.

Für Probleme mit mehr als ein paar Parametern ist das mächtigste Werkzeug, das wir haben, MCMC, was für "Markov chain Monte Carlo" steht. In diesem Zusammenhang bezieht sich der Begriff "Monte Carlo" auf Methoden, die Zufallsstichproben aus einer Verteilung erzeugen. Im Gegensatz zu den Grid-Methoden wird bei MCMC-Methoden nicht versucht, die hintere Verteilung zu berechnen, sondern es werden Stichproben gezogen.

Es mag seltsam erscheinen, dass du eine Stichprobe erzeugen kannst, ohne jemals die Verteilung zu berechnen, aber das ist die Magie von MCMC.

Um das zu demonstrieren, beginnen wir mit der Lösung des WM-Problems. Ja, schon wieder.

Das Problem der Weltmeisterschaft

In Kapitel 8 haben wir das Toreschießen im Fußball(Soccer) ...

Get Think Bayes, 2. Auflage now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.