Capítulo 7. Domar el modelo
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En el capítulo anterior, conseguiste destilar todo tu contexto en un único prompt coherente. Ahora ha llegado el momento de que el LLM haga lo suyo y de que tú te asegures de que todo va sobre ruedas.
En este capítulo, vamos a empezar hablando de los formatos de finalización y de cómo asegurarnos de que tus finalizaciones se detienen cuando se supone que deben hacerlo, así como de cómo interpretarlas utilizando los llamados trucos logprob.
A continuación, vamos a dar un paso atrás para que puedas preguntarte qué modelo vas a elegir invocar: un servicio comercial profesional, una alternativa de código abierto o incluso tu propio modelo personalizado y ajustado. Es hora de ponerse manos a la obra.
Anatomía de la finalización ideal
En esta sección, examinaremos cómo aparecen las finalizaciones, ya sean finalizaciones clásicas o respuestas de chat. Y lo que es más importante, hablaremos de cómo quieres que se vean para garantizar soluciones claras y eficaces, evitando al mismo tiempo problemas como retrasos innecesarios o detalles confusos. Como hicimos en el Capítulo 6 con los prompt, desglosaremos los componentes de una compleción LLM y los revisaremos uno a uno (ver Figura 7-1).
Figura 7-1. Finalización de un LLM
Preámbulo
En el contexto ...