Capitolo 6. Rendere il sentimento programmabile con l'uso degli embeddings
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Nel Capitolo 5 hai visto come prendere le parole e codificarle in token. Poi, hai visto come codificare le frasi piene di parole in sequenze piene di token, riempiendole o troncandole a seconda dei casi per ottenere un insieme di dati ben formato da utilizzare per addestrare una rete neurale. Tuttavia, in tutto questo non c'era alcun tipo di modellazione del significato di una parola. E se è vero che non esiste una codifica numerica assoluta che possa incapsulare il significato, ne esistono di relative.
In questo capitolo imparerai a conoscere le tecniche per incapsulare il significato e, in particolare, il concetto di embedding, in cui vengono creati dei vettori nello spazio ad alta dimensionalità per rappresentare le parole. Le direzioni di questi vettori possono essere apprese nel tempo, in base all'uso delle parole nel corpus. Quindi, quando ti viene data una frase, puoi studiare le direzioni dei vettori delle parole, sommarle e, in base alla direzione complessiva della somma, stabilire il sentiment della frase come prodotto delle sue parole. Inoltre, in relazione a ciò, mentre il modello analizza le frasi, il posizionamento delle parole nella frase può aiutare a formare un embedding appropriato.
In questo capitolo esploreremo anche come funziona. Utilizzando il ...