Capítulo 10. Reducción de la dimensionalidad mediante la selección de rasgos

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

10.0 Introducción

En el Capítulo 9, hablamos de cómo reducir la dimensionalidad de nuestra matriz de características creando nuevas características con capacidades (idealmente) similares para entrenar modelos de calidad, pero con muchas menos dimensiones. Esto se llama extracción de características. En este capítulo trataremos un enfoque alternativo: seleccionar características informativas de alta calidad y descartar las características menos útiles. Esto se denomina selección de características en .

Hay tres tipos de métodos de selección de características: de filtro, de envoltorio y de incrustación. Los métodos de filtro seleccionan las mejores características de examinando sus propiedades estadísticas. Los métodos en los que fijamos explícitamente un umbral para una estadística o seleccionamos manualmente el número de características que queremos conservar son ejemplos de selección de características por filtrado. Los métodos envolventes utilizan el método de ensayo y error para encontrar el subconjunto de características que produce modelos con las predicciones de mayor calidad. Los métodos envolventes son a menudo los más eficaces, ya que encuentran el mejor resultado a través de la experimentación real, en contraposición a las suposiciones ingenuas. Por último, los métodos integrados ...

Get Recetario de Aprendizaje Automático con Python, 2ª Edición now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.