Chapitre 6. Les modèles linguistiques rêvent-ils de moutons électriques ?
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Parmi toute l'excitation suscitée par les progrès des LLMs, peu de phénomènes captivent et laissent perplexe comme leurs soi-disant hallucinations. C'est presque comme si ces entités informatiques, au plus profond de leurs myriades de couches, dérivaient occasionnellement vers un état onirique, créant des récits merveilleux et déconcertants. Comme les rêves d'un être humain, ces hallucinations peuvent être réfléchies, absurdes ou même prophétiques, et donner un aperçu de l'interaction complexe entre les données d'entraînement et les interprétations apprises du modèle.
Dans le monde des LLMs, le terme "hallucination" peut évoquer des images de créations vives et fantaisistes, mais en réalité, il signifie une anomalie statistique plus banale. À la base, une hallucination est une tentative du modèle de combler les lacunes de ses connaissances en utilisant les modèles qu'il a glanés dans ses données d'entraînement. Bien qu'on puisse la qualifier d'" imaginative ", il s'agit essentiellement d'une supposition éclairée de la part du LLM face à des données ou des scénarios qui ne lui sont pas familiers. Cependant, ces suppositions peuvent se manifester sous forme d'affirmations confiantes mais infondées, révélant la difficulté du modèle à faire la différence entre des faits bien appris ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access