Chapitre 5. Ton LLM peut-il en savoir trop ?
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
En 2023, une série d'entreprises ont commencé à interdire ou à restreindre fortement l'utilisation des services de LLM, comme ChatGPT, en raison de craintes concernant d'éventuelles fuites de données confidentielles. Une liste partielle de ces entreprises comprend Samsung, JPMorgan Chase, Amazon, Bank of America, Citigroup, Deutsche Bank, Wells Fargo et Goldman Sachs. Ces mesures prises par les géants de la finance et de la technologie témoignent d'une grande inquiétude quant à la divulgation d'informations confidentielles et sensibles par les LLMs, mais à quel point le risque est-il critique ? En tant que développeur d'une application LLM, dois-tu t'en préoccuper ?
Dans l'histoire de Tay du chapitre 1, le chatbot de Microsoft a été attaqué par des pirates informatiques. Aussi graves qu'aient été les dommages, ils ont été limités parce que Tay n'avait pas accès à beaucoup de données sensibles qu'elle aurait pu divulguer. Cependant, le croisement des LLM avec des données du monde réel peut abriter le potentiel de divulgation involontaire d'informations, comme on l'a vu dans les cas où des employés ont alimenté par inadvertance ChatGPT en données commerciales sensibles, qui ont ensuite été intégrées à la base d'entraînement du système, de sorte que d'autres personnes ont pu les découvrir.
Ce chapitre creusera ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access