Chapitre 4. Techniques de formationpréservant la confidentialité
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Jusqu'à présent, tu as appris à créer des LLMs et à les évaluer correctement en termes de confidentialité et de sécurité. Tu vas maintenant découvrir comment préserver la santé de ces amis IA en intégrant directement ces protections dans tes modèles. Dans ce chapitre, tu vas explorer une catégorie de techniques qui permettent à ton IA de s'entraîner sur des informations sensibles tout en préservant la confidentialité de ces informations.
Les méthodes de protection de la vie privée représentent une frontière critique dans le développement de l'IA, d'autant plus que les LLMs traitent de plus en plus d'informations personnelles, médicales, financières et autres informations sensibles. Ces approches permettent aux modèles d'extraire des modèles et des informations précieuses à partir des données sans compromettre la confidentialité des enregistrements ou des exemples individuels. Elles fonctionnent en créant des garanties mathématiques et des protections cryptographiques qui limitent les informations pouvant être extraites ou déduites du modèle formé.
Dans ce chapitre, tu découvriras plusieurs techniques clés qui permettent aux systèmes d'IA d'apprendre à partir d'infos sensibles tout en maintenant une protection solide de la vie privée. Ces méthodes sont à la croisée du machine learning, ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access