El manual del desarrollador para la seguridad de los modelos de lenguaje de gran tamaño
by Steve Wilson
Capítulo 1. Chatbots que rompen el mal
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Los grandes modelos lingüísticos y la IA generativa saltaron al primer plano de la conciencia pública con el lanzamiento de ChatGPT el 30 de noviembre de 2022. En cinco días, se hizo viral en las redes sociales y atrajo a su primer millón de usuarios. En enero, ChatGPT superó los cien millones de usuarios, convirtiéndose en el servicio de Internet de más rápido crecimiento de la historia.
Sin embargo, en los meses siguientes surgió un flujo constante de problemas de seguridad. Entre ellos, problemas de privacidad y seguridad que llevaron a empresas como Samsung y a países como Italia a prohibir su uso. En este libro, exploraremos lo que subyace a estas preocupaciones y cómo puedes mitigar estos problemas. Sin embargo, para comprender mejor lo que ocurre aquí y por qué estos problemas son tan difíciles de resolver, en este capítulo rebobinaremos brevemente en el tiempo. Al hacerlo, veremos que este tipo de problemas no son nuevos y comprenderemos por qué serán tan difíciles de solucionar permanentemente.
Hablemos de Tay
En de marzo de 2016, Microsoft anunció un nuevo proyecto llamado Tay. Microsoft pretendía que Tay fuera "un chatbot creado para jóvenes de 18 a 24 años en EE.UU. con fines de entretenimiento". Era un nombre bonito para un esponjoso experimento inicial de IA. Tay se diseñó para imitar los patrones lingüísticos ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access