Kapitel 6. Autonome Agenten mitSpeicher und Werkzeugen
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In diesem Kapitel geht es um die Bedeutung von Chain-of-Thought-Reasoning und die Fähigkeit von Large Language Models (LLMs), komplexe Probleme als Agenten zu durchdenken. Indem sie komplexe Probleme in kleinere, besser handhabbare Komponenten zerlegen, können LLMs gründlichere und effektivere Lösungen anbieten. Außerdem lernst du die Komponenten kennen, aus denen autonome Agenten bestehen, z. B. Eingaben, Ziel- oder Belohnungsfunktionen und verfügbare Aktionen.
Gedankenkette
Die Fähigkeit der KI, komplexe Probleme zu durchdenken, ist entscheidend für die Entwicklung effektiver, zuverlässiger und benutzerfreundlicher Anwendungen.
Chain-of-Thought-Reasoning (CoT) ist eine Methode , die LLMs durch eine Reihe von Schritten oder logischen Verbindungen führt, um zu einer Schlussfolgerung zu gelangen oder ein Problem zu lösen. Dieser Ansatz ist besonders nützlich für Aufgaben, die ein tieferes Verständnis von Zusammenhängen erfordern oder bei denen mehrere Faktoren zu berücksichtigen sind.
CoT verlangt von einem LLM, dass er komplexe Probleme durchdenkt und sie in kleinere, besser handhabbare Teile zerlegt. So kann sich der LLM auf jeden einzelnen Teil konzentrieren und ein gründlicheres Verständnis für das jeweilige Problem erlangen.
In der Praxis kann das Denken in der Gedankenkette so aussehen: ...
Get Prompt Engineering für generative KI now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.