Capítulo 6. Agentes autónomos conmemoria y herramientas
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Este capítulo profundiza en la importancia del razonamiento en cadena y en la capacidad de los grandes modelos lingüísticos (LLM) para razonar a través de problemas complejos como agentes. Al descomponer los problemas complejos en componentes más pequeños y manejables, los LLM pueden ofrecer soluciones más completas y eficaces. También aprenderás sobre los componentes que forman los agentes autónomos, como las entradas, las funciones de objetivo o recompensa y las acciones disponibles.
Cadena de pensamiento
La capacidad de la IA para razonar sobre problemas complejos es esencial para crear aplicaciones eficaces, fiables y fáciles de usar.
El razonamiento en cadena (CoT) es un método de guiar a los LLM a través de una serie de pasos o conexiones lógicas para llegar a una conclusión o resolver un problema. Este enfoque es especialmente útil para tareas que requieren una comprensión más profunda del contexto o múltiples factores a tener en cuenta.
El CoT pide a un LLM que piense en problemas complejos, dividiéndolos en componentes más pequeños y manejables. Esto permite al LLM centrarse en cada parte individualmente, garantizando una comprensión más profunda del problema en cuestión.
En la práctica, el razonamiento en cadena puede implicar:
-
Pedir a un LLM que explique sus decisiones
-
Planificar múltiples pasos ...