Processamento de linguagem natural com transformadores, edição revisada
by Lewis Tunstall, Leandro von Werra, Thomas Wolf
Capítulo 4. Reconhecimento multilingue de entidades nomeadas
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Até agora, neste livro, aplicámos transformadores para resolver tarefas de PNL em corpora ingleses - mas o que fazer quando os teus documentos estão escritos em grego, swahili ou klingon? Uma abordagem é procurar no Hugging Face Hub um modelo de linguagem pré-treinado adequado e ajustá-lo à tarefa em questão. No entanto, estes modelos pré-treinados tendem a existir apenas para línguas com "recursos elevados" como o alemão, o russo ou o mandarim, onde existe muito texto Web disponível para pré-treino. Outro desafio comum surge quando o seu corpus é multilingue: manter vários modelos monolingues em produção não será nada divertido para si ou para a sua equipa de engenharia.
Felizmente, existe uma classe de transformadores multilingues que vêm em seu socorro. Tal como o BERT, estes modelos utilizam a modelação de linguagem mascarada como objetivo de pré-treino, mas são treinados conjuntamente em textos de mais de cem línguas. Ao pré-treinarem em grandes corpora de várias línguas, estes transformadores multilingues permitem a transferência multilingue sem qualquer esforço, o que significa que um modelo afinado numa língua pode ser aplicado a outras sem qualquer treino adicional! Isto também torna estes modelos adequados para o "code-switching", em que um falante alterna entre duas ou mais línguas ou dialectos ...