Chapitre 3. Architectures et limites de confiance
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Contrairement aux applications Web traditionnelles qui reposent sur des algorithmes prédéfinis et des bases de données statiques, les LLM utilisent des réseaux neuronaux massifs pour générer des réponses dynamiques et adaptées au contexte. Ce changement sismique entraîne un ensemble unique de défis en matière de sécurité, différents de ceux observés dans les applications Web traditionnelles. Alors que les chercheurs ont méticuleusement étudié les applications web et leurs vulnérabilités, le domaine de la sécurité des LLM est encore relativement naissant.
Ce chapitre vise à combler ce déficit de connaissances en disséquant les éléments fondamentaux qui distinguent les LLMs. Nous commencerons par explorer les éléments constitutifs de l'IA, les réseaux neuronaux, et leur rapport avec les grands modèles de langage. Ensuite, nous nous pencherons sur l'architecture révolutionnaire qui alimente la plupart des LLMs aujourd'hui - le modèle de transformateur. Ensuite, nous nous pencherons sur les différentes applications alimentées par les LLM, telles que les chatbots et les copilotes.
Cependant, en plus de comprendre la technologie, les professionnels de la sécurité doivent être conscients des nouveaux types de frontières de confiance propres aux LLMs - frontières qui délimitent des zones de fiabilité variable ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access