Capitolo 7. Applicazioni della matrice
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Spero che ora, dopo gli ultimi due capitoli ricchi di teoria, ti senta come se avessi appena terminato un intenso allenamento in palestra: esausto ma carico di energia. Questo capitolo dovrebbe essere come un giro in bicicletta tra le colline della campagna: a volte faticoso, ma che offre una prospettiva fresca e stimolante.
Le applicazioni di questo capitolo sono liberamente costruite a partire da quelle del Capitolo 4. L'ho fatto per avere un filo conduttore che lega i capitoli sui vettori e sulle matrici. Inoltre, voglio che tu veda che, sebbene i concetti e le applicazioni diventino sempre più complessi man mano che progredisci nell'algebra lineare, le basi sono sempre costruite sugli stessi semplici principi, come le combinazioni lineari ponderate e il prodotto di punti.
Matrici di covarianza dei dati multivariati
Nel Capitolo 4 hai imparato a calcolare il coefficiente di correlazione di Pearson come il prodotto vettoriale del punto tra due variabili di dati, diviso per il prodotto delle norme vettoriali. Quella formula si riferiva a due variabili (ad esempio, altezza e peso); cosa succede se hai più variabili (ad esempio, altezza, peso, età, attività fisica settimanale...)?
Potresti immaginare di scrivere un doppio ciclo for su tutte le variabili e applicare la formula di correlazione bivariata ...