El manual del desarrollador para la seguridad de los modelos de lenguaje de gran tamaño
by Steve Wilson
Capítulo 6. ¿Sueñan los modelos lingüísticos con ovejas eléctricas?
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Entre todo el entusiasmo por los avances en los LLMs, pocos fenómenos cautivan y dejan perplejo como sus llamadas alucinaciones. Es casi como si estas entidades computacionales, en lo más profundo de sus innumerables capas, entraran ocasionalmente en un estado onírico, creando narraciones maravillosas y desconcertantes. Al igual que los sueños de un ser humano, estas alucinaciones pueden ser reflexivas, absurdas o incluso proféticas, y proporcionan información sobre la compleja interacción entre los datos de entrenamiento y las interpretaciones aprendidas del modelo.
En el mundo de los LLMs, el término "alucinación" puede evocar imágenes de creaciones vívidas y caprichosas, pero en realidad, significa una anomalía estadística más mundana. En el fondo, una alucinación es el intento del modelo de colmar lagunas en sus conocimientos utilizando los patrones que ha recogido de sus datos de entrenamiento. Aunque podría calificarse de "imaginativa", se trata esencialmente de que el LLM hace una conjetura educada cuando se enfrenta a datos o escenarios desconocidos. Sin embargo, estas conjeturas pueden manifestarse como afirmaciones seguras pero infundadas, revelando la lucha del modelo por diferenciar entre los hechos bien aprendidos y el ruido estadístico de sus datos de entrenamiento.
Los LLMs no proporcionan ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access