El manual del desarrollador para la seguridad de los modelos de lenguaje de gran tamaño
by Steve Wilson
Prefacio
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En todo el mundo estamos en la cresta de la ola de los grandes modelos de lenguaje (LLM), ¡y es emocionante! Cuando ChatGPT irrumpió en escena, no sólo entró en los libros de récords, sino que los pulverizó, convirtiéndose en la aplicación más rápidamente adoptada de la historia. Ahora, es como si todos los proveedores de software del planeta se apresuraran a integrar las tecnologías de IA generativa y LLM en su pila, empujándonos a territorios desconocidos. La expectación es real, el bombo está justificado y las posibilidades parecen ilimitadas.
Pero agárrate porque hay un giro. Mientras nos maravillamos con estas maravillas tecnológicas, su andamiaje de seguridad es, por decirlo suavemente, un trabajo en curso. ¿La cruda realidad? Muchos desarrolladores están entrando en esta nueva era sin un mapa, en gran parte inconscientes de las arenas movedizas de seguridad que hay bajo la superficie. Ya es casi rutinario: cada semana, nos encontramos con otro titular gritando sobre un contratiempo en el LLM. Las consecuencias de estos incidentes individuales han sido moderadas hasta ahora, pero no te equivoques: estamos coqueteando con el desastre.
Los riesgos no son sólo hipotéticos; son muy reales, y el tiempo corre. Sin una inmersión profunda en las turbias aguas de los riesgos de seguridad del LLM y en cómo navegar por ellas, no sólo nos estamos arriesgando ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access