El manual del desarrollador para la seguridad de los modelos de lenguaje de gran tamaño
by Steve Wilson
Capítulo 3. Arquitecturas y límites de confianza
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
A diferencia de las aplicaciones web tradicionales, que dependen de algoritmos predefinidos y bases de datos estáticas, las LLMs utilizan redes neuronales masivas para generar respuestas dinámicas y conscientes del contexto. Este cambio sísmico conlleva un conjunto único de retos de seguridad, distintos de los que se observan en las aplicaciones web tradicionales. Mientras que los investigadores han estudiado meticulosamente las aplicaciones web y sus vulnerabilidades, el campo de la seguridad de las LLM es aún relativamente incipiente.
Este capítulo pretende colmar esta laguna de conocimientos diseccionando los elementos fundamentales que distinguen a los LLMs. Empezaremos explorando los componentes básicos de la IA, las redes neuronales y su relación con los grandes modelos lingüísticos. A continuación, nos sumergiremos en la innovadora arquitectura que impulsa la mayoría de los LLMs actuales: el modelo transformador. A continuación, examinaremos las distintas aplicaciones que funcionan con LLM, como los chatbots y los copilotos.
Sin embargo, además de comprender la tecnología, los profesionales de la seguridad deben ser conscientes de los nuevos tipos de límites de confianza exclusivos de los LLMs: límites que delimitan áreas de fiabilidad variable dentro de una aplicación. Entre ellos se incluyen los prompt de ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access