Capitolo 7. Reti neurali ricorrenti per l'elaborazione del linguaggio naturale
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Nel Capitolo 5 hai visto come tokenizzare e sequenziare il testo, trasformando le frasi in tensori di numeri che possono essere inseriti in una rete neurale. Nel Capitolo 6 hai ampliato l'analisi delle incorporazioni, che rappresentano un modo per raggruppare parole con significati simili per consentire il calcolo del sentiment. Questo funziona molto bene, come hai visto costruendo un classificatore di sarcasmo. Ma c'è una limitazione: le frasi non sono semplici raccolte di parole e spesso l'ordine in cui le parole appaiono ne determina il significato complessivo. Inoltre, gli aggettivi possono aggiungere o cambiare il significato dei sostantivi accanto ai quali appaiono. Ad esempio, la parola blu potrebbe essere priva di significato dal punto di vista del sentimento, così come cielo, ma quando le metti insieme per ottenere cielo blu, indica un sentimento chiaro che di solito è positivo. Infine, alcuni sostantivi possono qualificarne altri, come nel caso di nuvola di pioggia, scrivania e tazza di caffè.
Per tenere conto di sequenze come queste, devi adottare un approccio aggiuntivo: devi inserire la ricorrenza nell'architettura del modello. In questo capitolo vedremo diversi modi per farlo. Analizzeremo come si possono apprendere le informazioni sulle sequenze e ...