Capitolo 5. Alberi decisionali
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Gli alberi decisionali sono algoritmi di apprendimento automatico versatili, in grado di eseguire compiti di classificazione e regressione e persino compiti multioutput. Sono algoritmi potenti, capaci di adattarsi a insiemi di dati complessi. Ad esempio, nel Capitolo 2 hai addestrato un modello DecisionTreeRegressor sul set di dati relativi alle abitazioni in California, adattandolo perfettamente (anzi, sovraadattandolo).
Gli alberi decisionali sono anche i componenti fondamentali delle foreste casuali (vedi Capitolo 6), che sono tra i più potenti algoritmi di apprendimento automatico oggi disponibili.
In questo capitolo inizieremo a parlare di come addestrare, visualizzare e fare previsioni con gli alberi decisionali. Poi vedremo l'algoritmo di addestramento CART utilizzato da Scikit-Learn ed esploreremo come regolarizzare gli alberi e utilizzarli per compiti di regressione. Infine, discuteremo alcuni limiti degli alberi decisionali.
Formazione e visualizzazione di un albero decisionale
Per capire gli alberi decisionali, costruiamone uno e diamo un'occhiata a come fa le previsioni. Il codice seguente addestra un DecisionTreeClassifier sul set di dati dell'iride (vedi Capitolo 4):
fromsklearn.datasetsimportload_irisfromsklearn.treeimportDecisionTreeClassifieriris=load_iris(as_frame=True)X_iris=