Capítulo 7. Redes neurais recorrentes para processamento de linguagem natural
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
No Capítulo 5, viste como tokenizar e sequenciar texto, transformando frases em tensores de números que podem ser introduzidos numa rede neuronal. Depois, no Capítulo 6, alargaste esse processo, analisando os embeddings, que constituem uma forma de agrupar palavras com significados semelhantes para permitir o cálculo do sentimento. Isto funcionou muito bem, como viste ao construir um classificador de sarcasmo. Mas há uma limitação: as frases não são apenas colecções de palavras e, muitas vezes, a ordem em que as palavras aparecem dita o seu significado geral. Além disso, os adjectivos podem acrescentar ou alterar o significado dos substantivos ao lado dos quais aparecem. Por exemplo, a palavra azul pode não ter significado do ponto de vista sentimental, tal como céu, mas quando as juntas para obter céu azul, isso indica um sentimento claro que é normalmente positivo. Por fim, alguns substantivos podem qualificar outros, como em rain cloud (nuvem de chuva), writing desk (secretária) e coffee mug (caneca de café).
Para ter em conta sequências como estas, tens de adotar uma abordagem adicional: tens de ter em conta a recorrência na arquitetura do modelo. Neste capítulo, verás diferentes formas de o fazer. Exploraremos como as informações de sequência podem ser aprendidas e como podes usar ...