Kapitel 4. Die Gefahren der konventionellen statistischen Methoden
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Schlimmer als nutzlos.
-Jerzy Neyman, bedeutender mathematischer Statistiker, bezieht sich auf die statistische Schlussfolgerungsmethodik von R. A. Fisher, dem Hauptarchitekten der konventionellen Statistik
Wir erinnern uns an Kapitel 1, dass alle Finanzmodelle von einer Dreiergruppe von Fehlern ausgesetzt sind: Fehler in den Modellspezifikationen, Fehler in den Modellparameterschätzungen und Fehler, die daraus resultieren, dass sich ein Modell nicht an strukturelle Veränderungen in seinem Umfeld anpassen kann. Aufgrund dieser Fehler brauchen wir dynamische Modelle, die die Unsicherheit in unseren finanziellen Schlussfolgerungen und Vorhersagen quantifizieren.
Eine statistische Schlussfolgerungsmethode, die als Nullhypothesen-Signifikanztest (NHST) bekannt ist, dominiert fast vollständig die Forschung und Praxis der Sozial- und Wirtschaftswissenschaften. In diesem Kapitel untersuchen wir, wie die NHST und ihre p-Wert-Statistik zum Testen von Hypothesen und zur Quantifizierung der Unsicherheit von Modellparametern eingesetzt wird. Die tiefgreifenden logischen Mängel der NHST-Methode sind in erster Linie für die Reproduzierbarkeitskrise in den Sozial- und Wirtschaftswissenschaften verantwortlich, in der die Mehrheit der veröffentlichten Forschungsergebnisse falsch ist.1 In den nächsten ...