Kapitel 44. Vertiefung: Entscheidungsbäumeund Zufallsforste

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Zuvor haben wir uns einen einfachen generativen Klassifikator (Naive Bayes; siehe Kapitel 41) und einen leistungsstarken diskriminativen Klassifikator (Support Vector Machines; siehe Kapitel 43) genauer angesehen. Hier werfen wir einen Blick auf einen weiteren leistungsstarken Algorithmus: einen nichtparametrischen Algorithmus namens Random Forests.Random Forests sind ein Beispiel für eine Ensemble-Methode, d. h. eine Methode, die auf der Zusammenfassung der Ergebnisse einer Reihe von einfacheren Schätzern beruht. Das etwas überraschende Ergebnis bei solchen Ensemble-Methoden ist, dass die Summe größer sein kann als die einzelnen Teile: Das heißt, die Vorhersagegenauigkeit einer Mehrheitsabstimmung unter einer Reihe von Schätzern kann am Ende besser sein als die der einzelnen Schätzer, die die Abstimmung durchführen! Wir werden in den folgenden Abschnitten Beispiele dafür sehen.

Wir beginnen mit den Standardimporten:

In [1]: %matplotlib inline
        import numpy as np
        import matplotlib.pyplot as plt
        plt.style.use('seaborn-whitegrid')

Motivierende Random Forests: Entscheidungsbäume

Zufällige Wälder sind ein Beispiel für einen Ensemble-Lerner, der auf Entscheidungsbäumen aufbaut. Aus diesem Grund werden wir zunächst die Entscheidungsbäume selbst besprechen.

Entscheidungsbäume sind eine äußerst ...

Get Python Data Science Handbook, 2. Auflage now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.