El manual del desarrollador para la seguridad de los modelos de lenguaje de gran tamaño
by Steve Wilson
Capítulo 5. ¿Puede tu LLM saber demasiado?
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En 2023, una serie de empresas empezaron a prohibir o restringir en gran medida el uso de servicios LLM, como ChatGPT, por temor a posibles filtraciones de datos confidenciales. Una lista parcial de estas empresas incluye a Samsung, JPMorgan Chase, Amazon, Bank of America, Citigroup, Deutsche Bank, Wells Fargo y Goldman Sachs. Estas acciones de gigantes de las finanzas y la tecnología muestran una preocupación sustancial por la divulgación de información confidencial y sensible por parte de los LLMs, pero ¿hasta qué punto es crítico el riesgo? Como desarrollador de una aplicación LLM, ¿debes preocuparte?
En la historia de Tay del Capítulo 1, el chatbot de Microsoft fue atacado por piratas informáticos. Aunque el daño fue grave, fue limitado porque Tay no tenía acceso a muchos datos sensibles que podría haber revelado. Sin embargo, la intersección de los LLMs con los datos del mundo real puede albergar el potencial de divulgación involuntaria de información, como se ha visto en casos en los que los empleados han introducido inadvertidamente datos empresariales sensibles en ChatGPT, que luego se integraron en la base de entrenamiento del sistema para que otros pudieran descubrirlos.
Este capítulo profundizará en las diversas formas en que los LLMs adquieren acceso a los datos. Examinaremos los tres métodos predominantes ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access