Capítulo 7. Aplicaciones matriciales
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Espero que ahora, después de los dos últimos capítulos cargados de teoría, te sientas como si acabaras de terminar un entrenamiento intenso en el gimnasio: agotado pero con energía. Este capítulo debería parecerte un paseo en bicicleta por las colinas del campo: esforzado a veces, pero que ofrece una perspectiva fresca e inspiradora.
Las aplicaciones de este capítulo se basan en las del Capítulo 4. Lo he hecho para tener algunos hilos comunes que unan los capítulos sobre vectores y sobre matrices. Y porque quiero que veas que, aunque los conceptos y las aplicaciones se vuelven más complejos a medida que progresas en álgebra lineal, los fundamentos siguen basándose en los mismos principios sencillos, como las combinaciones lineales ponderadas y el producto punto.
Matrices de covarianza de datos multivariantes
En el Capítulo 4, aprendiste a calcular el coeficiente de correlación de Pearson como el producto punto vectorial entre dos variables de datos, dividido por el producto de las normas vectoriales. Esa fórmula era para dos variables (por ejemplo, altura y peso); ¿qué ocurre si tienes múltiples variables (por ejemplo, altura, peso, edad, ejercicio semanal...)?
Podrías imaginar escribir un bucle doble for
sobre todas las variables, y aplicar la fórmula de correlación bivariante a todos los pares de variables. Pero eso es engorroso ...
Get Álgebra lineal práctica para la ciencia de datos now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.