In der Bayesschen Statistik ist die Posterior predictive distribution eines statistischen Modells[1] die bedingte Wahrscheinlichkeitsdichte neuer, unbeobachteter Werte , gegeben alle bisherigen Beobachtungen . Man erhält sie durch Parameter-Integration der bedingten Dichte mit der Posterior-Dichte .
Die Posterior predictive distribution ist definiert als
wobei der Parameterraum und die Posterior-Dichte ist. Die Gleichheit lässt sich mit dem Gesetz der totalen Wahrscheinlichkeit direkt sehen.
Die Posterior predictive distribution spielt zum Beispiel im Rahmen der Gauß-Prozess-Regression eine wichtige Rolle.
Die Prior predictive distribution lässt die beobachteten Daten außer Acht:
Die Posterior predictive distribution kann durch Anwendung der Bootstrap predictive distribution genähert werden, wobei per Bootstrapping-Verfahren aus der empirischen Verteilungsfunktion gezogene Stichproben sind.[2][3]