Préface
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Partout dans le monde, nous surfons sur la vague des grands modèles de langage (LLM), et c'est exaltant ! Lorsque ChatGPT a fait irruption sur la scène, il ne s'est pas contenté d'entrer dans le livre des records, il l'a pulvérisé, devenant l'application la plus rapidement adoptée de l'histoire. Aujourd'hui, c'est comme si tous les fournisseurs de logiciels de la planète faisaient la course pour intégrer les technologies d'IA générative et de LLM dans leur pile, nous poussant vers des territoires inexplorés. Le buzz est réel, le battage médiatique est justifié et les possibilités semblent illimitées.
Mais attends, car il y a un rebondissement. Alors que nous nous émerveillons devant ces merveilles technologiques, leur échafaudage de sécurité est, pour le moins, un travail en cours. La dure réalité ? De nombreux développeurs entrent dans cette nouvelle ère sans carte, ignorant largement les sables mouvants de sécurité et de sûreté qui se trouvent sous la surface. C'est presque une routine maintenant : chaque semaine, nous sommes frappés par un autre titre criant à propos d'un hoquet de LLM. Les retombées de ces incidents individuels ont été modérées jusqu'à présent, mais ne vous y trompez pas : nous flirtons avec le désastre.
Les risques ne sont pas seulement hypothétiques ; ils sont aussi réels que possible, et le temps presse. Si nous ne plongeons ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access