Capítulo 6. Tornando o sentimento programável usando Embeddings
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
No Capítulo 5, viste como pegar em palavras e codificá-las em tokens. Depois, viste como codificar frases cheias de palavras em sequências cheias de tokens, preenchendo-as ou truncando-as conforme apropriado para acabar com um conjunto de dados bem formado que podes usar para treinar uma rede neural. No entanto, em nada disso houve qualquer tipo de modelação do significado de uma palavra. E embora seja verdade que não existe uma codificação numérica absoluta que possa encapsular o significado, existem codificações relativas.
Neste capítulo, vais aprender técnicas para encapsular o significado e, em particular, o conceito de embeddings, em que são criados vectores no espaço de alta dimensão para representar palavras. As direcções destes vectores podem ser aprendidas ao longo do tempo, com base na utilização das palavras no corpus. Depois, quando te é dada uma frase, podes investigar as direcções dos vectores de palavras, somá-las e, a partir da direção geral da soma, estabelecer o sentimento da frase como um produto das suas palavras. Além disso, relacionado com isto, à medida que o modelo analisa as frases, o posicionamento das palavras na frase também pode ajudar a treinar uma incorporação adequada.
Neste capítulo, também exploraremos como isso funciona. Usando o conjunto de dados Manchetes de ...