Capítulo 6. Agentes Autónomos comMemória e Ferramentas
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Este capítulo aprofunda a importância do raciocínio em cadeia e a capacidade dos modelos de linguagem de grande porte (LLMs) de raciocinar sobre problemas complexos como agentes. Ao dividir problemas complexos em componentes mais pequenos e mais fáceis de gerir, os LLMs podem fornecer soluções mais completas e eficazes. Aprenderás também sobre os componentes que constituem os agentes autónomos, tais como entradas, funções de objetivo ou recompensa e ações disponíveis.
Cadeia de pensamento
A capacidade da IA para raciocinar sobre problemas complexos é essencial para criar aplicações eficazes, fiáveis e fáceis de utilizar.
O raciocínio em cadeia (CoT) é um método que consiste em guiar os LLMs através de uma série de passos ou ligações lógicas para chegar a uma conclusão ou resolver um problema. Esta abordagem é particularmente útil para tarefas que exigem uma compreensão mais profunda do contexto ou múltiplos factores a considerar.
A CoT pede a um LLM que pense em problemas complexos, dividindo-os em componentes mais pequenos e mais fáceis de gerir. Isto permite que o LLM se concentre em cada parte individualmente, garantindo uma compreensão mais completa do problema em questão.
Na prática, o raciocínio em cadeia pode envolver:
-
Pedir a um LLM que explique as suas decisões
-
Planear várias etapas antes de ...