Kapitel 2. Einführung in große Sprachmodelle für die Texterstellung
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Im Bereich der künstlichen Intelligenz wurde in letzter Zeit ein Schwerpunkt auf die Entwicklung großer Sprachmodelle gelegt. Im Gegensatz zu ihren weniger flexiblen Vorgängern sind LLMs in der Lage, eine viel größere Menge an Daten zu verarbeiten und daraus zu lernen, was zu der Fähigkeit führt, Texte zu produzieren, die der menschlichen Sprache sehr ähnlich sind. Diese Modelle haben sich in vielen verschiedenen Anwendungsbereichen durchgesetzt, vom Schreiben von Inhalten über die Automatisierung der Softwareentwicklung bis hin zu interaktiven Chatbot-Erlebnissen in Echtzeit.
Was sind Textgenerierungsmodelle?
Textgenerierungsmodelle nutzen fortschrittliche Algorithmen, um die Bedeutung von Texten zu verstehen und Ergebnisse zu produzieren, die oft nicht von menschlicher Arbeit zu unterscheiden sind. Wenn du schon einmal mit ChatGPT interagiert hast oder seine Fähigkeit bewundert hast, kohärente und kontextbezogene Sätze zu erstellen, hast du die Leistung eines LLM in Aktion erlebt.
In der natürlichen Sprachverarbeitung (NLP) und in LLMs ist die grundlegende linguistische Einheit ein Token. Token können Sätze, Wörter oder sogar Teilwörter wie eine Reihe von Zeichen darstellen. Eine nützliche Methode, um die Größe von Textdaten zu verstehen, ist die Anzahl der Token, aus denen ...
Get Prompt Engineering für generative KI now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.