Chapitre 6. Attaques et défensesadversaires
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Dans le chapitre précédent, tu as vu comment déployer en toute sécurité des LLMs à grande échelle d'un point de vue technique et organisationnel. Tu as examiné plusieurs aspects liés à l'infrastructure, aux modèles de conception d'API et aux mécanismes de contrôle d'accès qui aident à protéger ces modèles puissants dans les environnements de production. Mais même le système le plus soigneusement déployé reste vulnérable si le modèle sous-jacent lui-même peut être manipulé.
Ce chapitre se concentre sur le jeu fascinant du chat et de la souris entre les attaquants et les défenseurs dans le paysage des LLM. Tu vas maintenant te mettre dans la peau d'un adversaire pour comprendre comment ces modèles peuvent être attaqués, puis tu passeras à l'examen des mesures défensives qui peuvent les protéger. Comme d'autres systèmes de Deep Learning, les LLMs sont vulnérables aux attaques adversaires : des entrées soigneusement conçues pour manipuler le comportement du modèle de manière imprévue et potentiellement nuisible.
Les enjeux dans ce domaine sont importants. À mesure que les LLMs s'intègrent de plus en plus dans des applications critiques, des services financiers et des soins de santé à la modération de contenu et aux systèmes de sécurité, leurs vulnérabilités peuvent avoir de graves conséquences. Un attaquant ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access