Capitolo 2. Trasformatori per serie temporali
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
I transformer hanno guadagnato popolarità nella modellazione delle serie temporali grazie alla loro capacità di cogliere le interazioni tra sequenze lunghe in modo più efficace rispetto ai modelli di reti neurali ricorrenti (RNN). Il meccanismo di auto-attenzione nei transformer riduce la lunghezza massima dei percorsi di propagazione del segnale nella rete al minimo teorico di O(1), consentendo a ciascun elemento della sequenza di prestare attenzione direttamente a ogni altro elemento. Ciò elimina la necessità di strutture ricorrenti e consente un flusso di informazioni più efficiente. Di conseguenza, i transformer mostrano un grande potenziale per la previsione di serie temporali a sequenze lunghe (LSTF) e altri ambiti quali il rilevamento di anomalie e la previsione di serie temporali spazio-temporali.
Molte applicazioni del mondo reale, come le previsioni meteorologiche, la previsione del traffico, i controlli dei processi industriali e la pianificazione del consumo di elettricità, richiedono la previsione di serie temporali a sequenze lunghe. L'LSTF richiede un modello con un'elevata capacità di previsione, in grado di cogliere in modo efficiente le precise dipendenze a lungo raggio tra input e output.
Inoltre, la previsione probabilistica delle serie temporali è un compito importante in molte ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access