Capítulo 5. Explicabilidad de los datos textuales
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Los modelos lingüísticos desempeñan un papel central en los casos de uso modernos del aprendizaje profundo, y el campo del procesamiento del lenguaje natural (PLN) ha avanzado rápidamente, sobre todo en los últimos años. La PNL se centra en entender cómo funciona el lenguaje humano y es el núcleo de aplicaciones como la traducción automática, la recuperación de información, el análisis de sentimientos, el resumen de textos y la respuesta a preguntas. Los modelos construidos para estas aplicaciones se basan en datos de texto para comprender cómo funciona el lenguaje humano, y muchas de las arquitecturas de aprendizaje profundo que se utilizan habitualmente hoy en día, como las LSTM (memoria a largo plazo), la atención y las redes transformadoras, se desarrollaron específicamente para manejar los matices y las dificultades que surgen al trabajar con texto.
Quizás el más significativo de estos avances sea la arquitectura de transformadores, introducida en el artículo "La atención es todo lo que necesitas".1 Los transformadores se basan en el mecanismo de la atención y están especialmente bien equipados para manejar datos de texto secuenciales. Esto se debe en parte a su eficiencia computacional y a que son más capaces de mantener el contexto, ya que el texto se procesa como un todo y no secuencialmente. Poco después ...