Kapitel 1. Generative KI Anwendungsfälle, Grundlagen und Projektlebenszyklus
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In diesem Kapitel wirst du einige generative KI-Aufgaben und Anwendungsfälle in Aktion sehen, ein Verständnis für generative Basismodelle erlangen und einen typischen generativen KI-Projektlebenszyklus erkunden. Zu den Anwendungsfällen und Aufgaben, die du in diesem Kapitel kennenlernst, gehören die intelligente Suche, ein automatisierter Chatbot für den Kundensupport, die Zusammenfassung von Dialogen, die Moderation von NSFW-Inhalten, personalisierte Produktvideos, die Generierung von Quellcode und andere.
Du wirst auch einige der generativen KI-Service- und Hardwareoptionen von Amazon Web Services (AWS) kennenlernen, darunter Amazon Bedrock, Amazon SageMaker, Amazon CodeWhisperer, AWS Trainium und AWS Inferentia. Diese Service- und Hardware-Optionen bieten eine große Flexibilität bei der Entwicklung deiner kontextbezogenen, multimodalen Anwendungen mit generativer KI auf AWS.
Lass uns einige häufige Anwendungsfälle und Aufgaben für generative KI untersuchen.
Anwendungsfälle und Aufgaben
Ähnlich wie Deep Learning ist generative KI eine Allzwecktechnologie, die in vielen Branchen und Kundensegmenten für unterschiedliche Zwecke eingesetzt wird. Es gibt viele Arten von multimodalen generativen KI-Aufgaben. Wir haben eine Liste mit den gängigsten generativen Aufgaben und den dazugehörigen Anwendungsbeispielen zusammengestellt:
- Text-Zusammenfassung
-
Erstelle eine kürzere Version eines Textes, wobei die wichtigsten Ideen erhalten bleiben. Beispiele dafür sind die Zusammenfassung eines Nachrichtenartikels, eines juristischen Dokuments oder eines Finanzberichts in eine geringere Anzahl von Wörtern oder Absätzen, damit er schneller gelesen werden kann. Oft werden Zusammenfassungen bei Kundendienstgesprächen verwendet, um einen schnellen Überblick über die Interaktion zwischen einem Kunden und einem Kundendienstmitarbeiter zu erhalten.
- Umschreiben
-
Ändere den Wortlaut eines Textes, um ihn an ein anderes Publikum, eine andere Formalität oder einen anderen Ton anzupassen. Du kannst z. B. ein formelles juristisches Dokument in ein weniger formelles Dokument umwandeln und weniger juristische Begriffe verwenden, um ein nicht-juristisches Publikum anzusprechen.
- Informationsextraktion
-
Extrahiere Informationen aus Dokumenten wie Namen, Adressen, Ereignisse oder numerische Daten oder Zahlen. So kannst du zum Beispiel eine E-Mail in eine Bestellung in einem ERP-System wie SAP umwandeln.
- Fragenbeantwortung (QA) und visuelle Fragenbeantwortung (VQA)
-
Stelle Fragen direkt zu einer Reihe von Dokumenten, Bildern, Videos oder Audioclips. Du kannst z.B. einen internen Chatbot für deine Mitarbeiter einrichten, der Fragen zu Dokumenten der Personalabteilung und zu Sozialleistungen beantwortet.
- Erkennen von giftigen oder schädlichen Inhalten
-
Als Erweiterung der Frage-Antwort-Aufgabe kannst du ein generatives Modell fragen, ob ein Satz von Texten, Bildern, Videos oder Audioclips giftige oder schädliche Inhalte enthält.
- Klassifizierung und Inhaltsmoderation
-
Weise einem bestimmten Inhalt wie einem Dokument, Bild, Video oder Audioclip eine Kategorie zu. So kannst du z. B. Spam-Mails löschen, unangemessene Bilder herausfiltern oder eingehende, textbasierte Support-Tickets kennzeichnen.
- Konversationsschnittstelle
-
Führe Multiturn-Konversationen durch, um Aufgaben über eine Chat-ähnliche Schnittstelle zu erledigen. Beispiele dafür sind Chatbots für den Self-Service-Kundenservice oder Therapiesitzungen für psychisch Kranke.
- Übersetzung
-
Einer der frühesten Anwendungsfälle für generative KI ist die Sprachübersetzung. Stell dir zum Beispiel vor, dass der Verlag dieses Buches eine deutsche Übersetzung herausgeben möchte, um die Reichweite des Buches zu erhöhen. Oder vielleicht möchtest du die auf Python basierenden Beispiele nach Java konvertieren, um sie in deine bestehende Java-basierte Unternehmensanwendung einzubinden.
- Quellcode-Generierung
-
Erstelle Quellcode aus Kommentaren in natürlicher Sprache - oder sogar aus einer handgezeichneten Skizze, wie in Abbildung 1-1 gezeigt. Hier wird eine HTML- und JavaScript-basierte Website aus einer UI-Skizze erstellt, die auf die Rückseite einer Restaurantserviette gekritzelt wurde.
- Vernunft
-
Durchdenke ein Problem, um mögliche neue Lösungen, Kompromisse oder verborgene Details zu entdecken. Nehmen wir zum Beispiel einen Finanzvorstand, der den Investoren einen audiobasierten Quartalsbericht und einen detaillierteren schriftlichen Bericht vorlegt. Wenn du diese verschiedenen Medienformate zusammen durchdenkst, kann das Modell Schlussfolgerungen über die Gesundheit des Unternehmens aufdecken, die nicht direkt in den Audiodateien oder im Text enthalten sind.
- Persönlich identifizierbare Informationen (PII) verbergen
-
Du kannst generative Modelle verwenden, um persönlich identifizierbare Informationen aus einem bestimmten Textkorpus zu maskieren. Dies ist für viele Anwendungsfälle nützlich, in denen du mit sensiblen Daten arbeitest und personenbezogene Daten aus deinen Arbeitsabläufen entfernen möchtest.
- Personalisiertes Marketing und Werbung
-
Erstelle personalisierte Produktbeschreibungen, Videos oder Anzeigen auf der Grundlage von Nutzerprofilen. Nehmen wir an, eine E-Commerce-Website möchte für jedes Produkt eine personalisierte Beschreibung erstellen, die auf dem Alter oder der Familiensituation des eingeloggten Nutzers basiert. Du könntest auch personalisierte Produktbilder erstellen, die Erwachsene, Erwachsene mit Kindern oder Kinder selbst zeigen, um die Zielgruppe des eingeloggten Nutzers besser anzusprechen, wie in Abbildung 1-2 dargestellt.
In diesem Fall würde jeder Nutzer des Dienstes potenziell ein einzigartiges und stark personalisiertes Bild und eine Beschreibung für dasselbe Produkt sehen. Das könnte letztlich zu mehr Produktklicks und höheren Umsätzen führen.
In jedem dieser generativen Anwendungsfälle und Aufgaben erstellt ein Modell Inhalte, die dem menschlichen Sprachverständnis nahe kommen. Das ist wirklich erstaunlich und wird durch eine neuronale Netzwerkarchitektur namens Transformator ermöglicht, die du in Kapitel 3 kennenlernen wirst.
Im nächsten Abschnitt erfährst du, wie du über Modell-Hubs auf Basismodelle zugreifen kannst.
Basismodelle und Modell-Hubs
Basismodelle sind sehr große und komplexe neuronale Netzmodelle, die aus Milliarden von Parametern (auch bekannt als Gewichte) bestehen. Die Modellparameter werden in der Trainingsphase - auch Pretraining genannt - gelernt. Basismodelle werden mit riesigen Mengen an Trainingsdaten trainiert - in der Regel über einen Zeitraum von vielen Wochen und Monaten mit großen, verteilten Clustern von CPUs und Grafikprozessoren (GPUs). Nachdem sie Milliarden von Parametern gelernt haben, können diese Basismodelle komplexe Einheiten wie menschliche Sprache, Bilder, Videos und Audioclips darstellen.
In den meisten Fällen wirst du deine generativen KI-Projekte mit einem bestehenden Basismodell aus einem Model Hub wie Hugging Face Model Hub, PyTorch Hub oder Amazon SageMaker JumpStart beginnen. Ein Model Hub ist eine Sammlung von Modellen, die in der Regel detaillierte Modellbeschreibungen enthält, einschließlich der Anwendungsfälle, die sie abdecken.
In diesem Buch werden wir Hugging Face Model Hub und SageMaker JumpStart verwenden, um auf Basismodelle wie Llama 2 von Meta (Facebook), Falcon vom Technology Innovation Institute (TII) und FLAN-T5 von Google zuzugreifen. Du wirst in Kapitel 3 tiefer in Model Hubs und Basismodelle eintauchen.
Als Nächstes siehst du einen typischen Lebenszyklus eines generativen KI-Projekts, der in etwa der Gliederung des Restes dieses Buches entspricht.
Generativer KI-Projektlebenszyklus
Es gibt zwar keinen definitiven Projektlebenszyklus für generative KI-Projekte, aber der in Abbildung 1-3 gezeigte Rahmen kann dir helfen, dich durch die wichtigsten Abschnitte deiner generativen KI-Anwendung zu bewegen. Im Laufe des Buches wirst du Intuition entwickeln, lernen, mögliche Schwierigkeiten zu vermeiden und deine Entscheidungsfindung bei jedem Schritt zu verbessern.
Schauen wir uns die einzelnen Komponenten des in Abbildung 1-3 dargestellten Lebenszyklus an:
- Identifiziere den Anwendungsfall.
-
Wie bei jedem Projekt musst du zuerst deinen Umfang definieren, einschließlich des spezifischen generativen Anwendungsfalls und der Aufgabe, die du mit deiner generativen KI-Anwendung lösen willst. Wir empfehlen, dass du mit einem einzigen, gut dokumentierten generativen Anwendungsfall beginnst. Das hilft dir, dich mit der Umgebung vertraut zu machen und die Möglichkeiten - und Grenzen - dieser Modelle zu verstehen, ohne zu versuchen, das Modell gleichzeitig für verschiedene Aufgaben zu optimieren. Diese Modelle sind zwar in der Lage, mehrere Aufgaben auszuführen, aber es ist etwas schwieriger, das Modell zunächst für mehrere Aufgaben zu bewerten und zu optimieren.
- Experimentiere und wähle aus.
-
Generative KI-Modelle sind in der Lage, viele verschiedene Aufgaben mit großem Erfolg zu bewältigen. Du musst jedoch entscheiden, ob ein vorhandenes Basismodell für deine Anwendung geeignet ist. In Kapitel 2 lernst du, wie du mit diesen Basismodellen arbeiten kannst, indem du Eingabeaufforderungen (Prompt-Engineering) und kontextbezogenes Lernen anwendest.
In den meisten Fällen wirst du von einem bestehenden Basismodell aus starten (wie du in Kapitel 3 sehen wirst). Dadurch kannst du die Markteinführungszeit erheblich verkürzen, denn du vermeidest den ressourcenintensiven Schritt des Pre-Trainings, für den oft Billionen von Wörtern, Bildern, Videos oder Audioclips benötigt werden, um den Einstieg zu finden. Die Arbeit in dieser Größenordnung erfordert viel Zeit, Geduld und Rechenleistung - oft sind Millionen von GPU-Stunden erforderlich, wenn das Pretraining von Grund auf neu beginnt.
Auch die Größe des Basismodells, mit dem du arbeiten möchtest, sollte bedacht werden, da sie sich auf die Hardware und die Kosten auswirkt, die für das Training und den Betrieb deiner Modelle benötigt werden. Größere Modelle lassen sich in der Regel besser auf mehr Aufgaben verallgemeinern, aber das ist nicht immer der Fall und hängt von dem Datensatz ab, der beim Training und Tuning verwendet wird.
Wir empfehlen, dass du verschiedene Modelle für deinen generativen Anwendungsfall und deine Aufgabe ausprobierst. Beginne mit einem bestehenden, gut dokumentierten, relativ kleinen Basismodell (z. B. mit 7 Milliarden Parametern), um schnell zu iterieren und die einzigartigen Möglichkeiten der Interaktion mit diesen generativen KI-Modellen mit relativ wenig Hardware zu erlernen (im Vergleich zu den größeren Modellen mit 175+ Milliarden Parametern).
Während der Entwicklung beginnst du normalerweise mit einer Spielumgebung in Amazon SageMaker JumpStart oder Amazon Bedrock. So kannst du schnell verschiedene Eingabeaufforderungen und Modelle ausprobieren, wie du in Kapitel 2 sehen wirst. Als Nächstes könntest du ein Jupyter-Notizbuch oder ein Python-Skript in einer integrierten Entwicklungsumgebung (IDE) wie Visual Studio Code (VS Code) oder Amazon SageMaker Studio-Notizbücher verwenden, um deine eigenen Datensätze für das Experimentieren mit diesen generativen Modellen vorzubereiten. Sobald du bereit bist, deine Bemühungen auf ein größeres verteiltes Cluster zu skalieren, kannst du auf verteilte SageMaker-Trainingsaufträge umsteigen, um mit Beschleunigern wie der NVIDIA GPU oder AWS Trainium auf ein größeres Rechencluster zu skalieren, wie du in Kapitel 4 sehen wirst.
Auch wenn du anfangs vielleicht auf Beschleuniger verzichten kannst, wirst du sie sehr wahrscheinlich für die längerfristige Entwicklung und den Einsatz von komplexeren Modellen brauchen. Je früher du dich mit den einzigartigen - und manchmal obskuren - Aspekten der Entwicklung mit Beschleunigern wie NVIDIA GPUs oder AWS Trainium Chips vertraut machst, desto besser. Glücklicherweise wurde ein Großteil der Komplexität von den Hardware-Anbietern durch die NVIDIA CUDA Bibliothek bzw. das AWS Neuron SDK abstrahiert .
- Anpassen, ausrichten und erweitern.
-
Es ist wichtig, dass du generative Modelle an deinen spezifischen Bereich, Anwendungsfall und deine Aufgabe anpasst. In den Kapiteln 5, 6, 7 und 11 geht es um die Feinabstimmung deiner multimodalen generativen KI-Modelle mit deinen eigenen Datensätzen, um deine Geschäftsziele zu erreichen.
-
Da diese generativen Modelle immer menschenähnlicher werden, ist es außerdem wichtig, dass sie sich an menschlichen Werten und Vorlieben orientieren - und sich im Allgemeinen gut verhalten. In den Kapiteln 7 und 11 wird eine Technik namens "Reinforcement Learning from Human Feedback" (RLHF) vorgestellt, mit der du deine multimodalen generativen Modelle so ausrichten kannst, dass sie hilfreicher, ehrlicher und harmloser (HHH) sind. RLHF ist eine Schlüsselkomponente des viel umfassenderen Bereichs der verantwortungsvollen KI.
-
Generative Modelle enthalten zwar eine enorme Menge an Informationen und Wissen, aber sie müssen oft mit aktuellen Nachrichten oder geschützten Daten für dein Unternehmen ergänzt werden. In Kapitel 9 wirst du herausfinden, wie du deine generativen Modelle mit externen Datenquellen oder APIs erweitern kannst.
- Auswerten.
-
Um generative KI-Anwendungen richtig zu implementieren, musst du viele Iterationen durchführen. Deshalb ist es wichtig, genau definierte Bewertungsmaßstäbe und Benchmarks festzulegen, um die Wirksamkeit der Feinabstimmung zu messen. In Kapitel 5 erfährst du mehr über die Modellevaluation. Die Modellevaluation ist zwar nicht so einfach wie das traditionelle maschinelle Lernen, hilft aber dabei, die Verbesserungen an deinen Modellen während der Anpassungs- und Abstimmungsphase zu messen - insbesondere, wie gut das Modell mit deinen Geschäftszielen und menschlichen Präferenzen übereinstimmt.
- Einsetzen und integrieren.
-
Wenn du endlich ein gut abgestimmtes generatives Modell hast, ist es an der Zeit, dein Modell für die Inferenz einzusetzen und es in deine Anwendung zu integrieren. In Kapitel 8 erfährst du, wie du das Modell für die Inferenz optimierst, um deine Rechenressourcen besser zu nutzen, die Inferenzlatenz zu verringern und deine Nutzer zu begeistern.
-
Außerdem erfährst du, wie du deine Modelle mit der AWS Inferentia-Familie von Recheninstanzen bereitstellst, die für generative Schlussfolgerungen mit Amazon SageMaker-Endpunkten optimiert sind. SageMaker-Endpunkte sind eine hervorragende Option für die Bereitstellung generativer Modelle, da sie hoch skalierbar, fehlertolerant und anpassbar sind. Sie bieten flexible Einsatz- und Skalierungsoptionen wie A/B-Tests, Schatteneinsätze und automatische Skalierung, wie du in Kapitel 8 lernen wirst.
- Monitor.
-
Wie bei jedem Produktionssystem solltest du für alle Komponenten deiner generativen KI-Anwendung geeignete Systeme zur Erfassung und Überwachung von Metriken einrichten. In den Kapiteln 8 und 12 erfährst du, wie du Amazon CloudWatch und CloudTrail nutzen kannst, um deine generativen KI-Anwendungen auf AWS zu überwachen. Diese Services sind in hohem Maße anpassbar, über die AWS-Konsole oder das AWS Software Development Kit (SDK) zugänglich und in jeden AWS-Service integriert, einschließlich Amazon Bedrock, einem verwalteten Service für generative KI, den du in Kapitel 12 kennenlernen wirst.
Generative KI auf AWS
In diesem Abschnitt wird der AWS-Stack mit speziell entwickelten generativen KI-Services und -Funktionen vorgestellt (siehe Abbildung 1-4) und einige der Vorteile der Nutzung von AWS für generative KI erörtert.
Zu den Modellanbietern gehören diejenigen, die Basismodelle aufbauen oder vorbereiten und dafür Zugang zu leistungsstarken und kostengünstigen Rechen- und Speicherressourcen benötigen. AWS bietet eine Reihe von Frameworks und Infrastrukturen für den Aufbau von Basismodellen an. Dazu gehören optimierte Recheninstanzen für generative KI mit selbstverwalteten Optionen wie Amazon EC2 sowie verwaltete Optionen wie Amazon SageMaker für das Modelltraining und die Modellbereitstellung. Darüber hinaus bietet AWS seine eigenen Beschleuniger an, die für das Training(AWS Trainium) und die Bereitstellung generativer Modelle(AWS Inferentia) optimiert sind.
AWS Trainium ist ein Beschleuniger, der speziell für hochleistungsfähige und kostengünstige Schulungsaufgaben entwickelt wurde. Ebenso ist AWS Inferentia speziell für kostengünstige Inferenzen mit hohem Durchsatz konzipiert. Die für generative KI optimierten Infrastrukturoptionen auf AWS werden von Modellanbietern, aber auch von Modelltunern genutzt.
Zu den Modelltunern gehören diejenigen, die Basismodelle an ihre spezifische Domäne, ihren Anwendungsfall und ihre Aufgabe anpassen oder abstimmen. Dies erfordert in der Regel nicht nur den Zugang zu Speicher- und Rechenressourcen, sondern auch zu Werkzeugen, die diese Aufgaben durch den einfachen Zugriff auf eine Reihe von Basismodellen ermöglichen und die Verwaltung der zugrunde liegenden Infrastruktur überflüssig machen. Zusätzlich zu den optimierten Infrastrukturen, die auf AWS zur Verfügung stehen, haben Tuner auch Zugriff auf eine breite Palette beliebter Basismodelle sowie auf Tools zum Anpassen oder Abgleichen von Basismodellen, einschließlich der in Amazon Bedrock und Amazon SageMaker JumpStart integrierten Funktionen.
Amazon Bedrock ist ein vollständig verwalteter Service , der Zugang zu Modellen von Amazon (z. B. Titan) und beliebten Drittanbietern (z. B. AI21 Labs, Anthropic, Cohere und Stability AI) bietet. So kannst du schnell mit den verfügbaren Basismodellen experimentieren. Bedrock ermöglicht es dir auch, Basismodelle mit deinen eigenen Daten anzupassen und diese Modelle in generative KI-Anwendungen zu integrieren und einzusetzen. Agenten für Bedrock werden vollständig verwaltet und ermöglichen zusätzliche Anpassungen durch die Integration eigener externer Datenquellen und die Möglichkeit, Aufgaben zu erledigen.
Amazon SageMaker JumpStart bietet Zugang zu öffentlichen und eigenen Basismodellen über einen Modell-Hub, der die Möglichkeit bietet, ein Basismodell in Echtzeit an Amazon SageMaker-Modellbereitstellungsendpunkten bereitzustellen. Darüber hinaus bietet SageMaker JumpStart die Möglichkeit, verfügbare Modelle mithilfe des SageMaker-Modelltrainings zu optimieren. SageMaker JumpStart generiert automatisch Notebooks mit Code für den Einsatz und die Feinabstimmung von Modellen, die im Model Hub verfügbar sind.
Amazon SageMaker bietet zusätzliche Erweiterungsmöglichkeiten durch verwaltete Umgebungen in Amazon SageMaker Studio Notebooks, um mit jedem verfügbaren Basismodell zu arbeiten, unabhängig davon, ob es in SageMaker JumpStart verfügbar ist. So kannst du mit allen Modellen arbeiten, die dir zur Verfügung stehen, und bist nie in den Modellen eingeschränkt, mit denen du in Amazon SageMaker arbeiten kannst.
Die Anpassung eines Modells an einen bestimmten Anwendungsfall, eine Aufgabe oder eine Domäne beinhaltet oft die Erweiterung des Modells mit zusätzlichen Daten. AWS bietet auch mehrere Implementierungsoptionen für Vektorspeicher, die Vektoreinbettungen speichern. Vektorspeicher und Einbettungen werden für die Retrieval-Augmented Generation (RAG) verwendet, um relevante Informationen aus externen Datenquellen effizient abzurufen und die mit einem generativen Modell verwendeten Daten zu erweitern.
Zu den verfügbaren Optionen gehören die Vektor-Engine für Amazon OpenSearch Serverless sowie das k-NN-Plugin, das für die Verwendung mit Amazon OpenSearch Service verfügbar ist. Darüber hinaus bieten sowohl Amazon Aurora PostgreSQL als auch Amazon Relational Database Services (RDS) für PostgreSQL durch die integrierte pgvector-Unterstützung Vektorspeicherfunktionen.
Wenn du eine vollständig verwaltete semantische Suche auf domänenspezifischen Daten suchst, kannst du Amazon Kendra nutzen, das die Einbettungen für dich erstellt und verwaltet.
AWS bietet mehrere Optionen, wenn du auf generative Modelle über durchgängige generative KI-Anwendungen zugreifen möchtest. Auf AWS kannst du deine eigenen generativen KI-Anwendungen erstellen und dabei die Breite und Tiefe der verfügbaren Dienste nutzen. Du kannst auch die Vorteile von vollständig verwalteten Paketdiensten nutzen.
So bietet Amazon CodeWhisperer generative Kodierungsfunktionen für mehrere Kodierungssprachen und unterstützt Produktivitätssteigerungen wie die Codegenerierung, das proaktive Scannen nach Schwachstellen und das Vorschlagen von Codebehebungen mit automatischen Vorschlägen zur Codezuordnung.
AWS HealthScribe ist ein weiteres Paket generativen KI-Dienstes, der auf die Gesundheitsbranche ausgerichtet ist und die automatische Erstellung von klinischen Notizen auf der Grundlage von Gesprächen zwischen Patient und Arzt ermöglicht.
Schließlich enthält Amazon QuickSight Q integrierte generative Funktionen, die es den Nutzern ermöglichen, Fragen zu Daten in natürlicher Sprache zu stellen und Antworten sowie generierte Visualisierungen zu erhalten, die es den Nutzern ermöglichen, mehr Einblick in ihre Daten zu erhalten.
Dieses Buch konzentriert sich hauptsächlich auf die Personas und Aufgaben, die im Abschnitt "Generativer KI-Projektlebenszyklus"behandelt werden -sowie auf die Erstellung generativer KI-Anwendungen. Viele der in diesem Abschnitt vorgestellten Services, wie Amazon SageMaker JumpStart und Amazon Bedrock, werden in diesem Buch immer wieder erwähnt, wenn du in bestimmte Bereiche des generativen KI-Projektlebenszyklus eintauchst.
Nachdem wir nun einige zentrale AWS-Services für generative KI vorgestellt haben, wollen wir uns nun einige der Vorteile ansehen, die sich aus der Nutzung von AWS für die Entwicklung generativer KI-Anwendungen ergeben.
Warum generative KI auf AWS?
Zu den wichtigsten Vorteilen der Nutzung von AWS für deine generativen KI-Arbeitslasten gehören eine größere Flexibilität und Auswahl, Sicherheits- und Governance-Funktionen auf Unternehmensniveau, hochmoderne generative KI-Funktionen, ein geringer Betriebsaufwand durch vollständig verwaltete Services, die Möglichkeit, schnell mit gebrauchsfertigen Lösungen und Services zu beginnen, und eine starke Geschichte kontinuierlicher Innovation. Gehen wir anhand einiger konkreter Beispiele näher auf die einzelnen Punkte ein:
- Erhöhte Flexibilität und Auswahl
-
AWS bietet Flexibilität nicht nur durch die Möglichkeit, eine Reihe von Diensten und Funktionen zu nutzen, um die Anforderungen jedes Anwendungsfalls zu erfüllen, sondern auch durch die Auswahl an generativen Modellen. So kannst du nicht nur das richtige Modell für einen Anwendungsfall auswählen, sondern auch neue Modelle ändern und kontinuierlich evaluieren, um neue Möglichkeiten zu nutzen.
- Unternehmenstaugliche Sicherheits- und Governance-Funktionen
-
Die AWS-Services verfügen über Sicherheits- und Governance-Funktionen, die für die am stärksten regulierten Branchen wichtig sind. Zum Beispiel unterstützen SageMaker Model Training, SageMaker Model Deployment und Amazon Bedrock wichtige Funktionen zum Datenschutz, zur Netzwerkisolierung, zum kontrollierten Zugriff und zur Autorisierung sowie zur Erkennung von Bedrohungen.
- Modernste generative KI-Fähigkeiten
-
AWS bietet eine große Auswahl an generativen KI-Modellen, von Amazon-Modellen über Modelle von Drittanbietern in Amazon Bedrock bis hin zu Open-Source- und proprietären Modellen, die über Amazon SageMaker JumpStart angeboten werden. Außerdem hat AWS in Infrastrukturen wie AWS Trainium und AWS Inferentia investiert, um generative Modelle in großem Umfang zu trainieren und bereitzustellen.
- Geringer operativer Aufwand
-
Wie bereits erwähnt, werden viele der AWS-Services und -Funktionen, die auf generative KI ausgerichtet sind, über verwaltete Infrastruktur, serverlose Angebote oder Paketlösungen angeboten. So kannst du dich auf generative KI-Modelle und -Anwendungen konzentrieren, anstatt dich um die Verwaltung der Infrastruktur zu kümmern, und schnell mit sofort einsatzbereiten Lösungen und Diensten loslegen.
- Starke Geschichte der kontinuierlichen Innovation
-
AWS kann auf eine lange Geschichte schneller Innovationen zurückblicken, die auf jahrelanger Erfahrung nicht nur mit Cloud-Infrastrukturen, sondern auch mit künstlicher Intelligenz beruht.
Die AWS-Services und -Funktionen zur Unterstützung generativer KI sind so breit, tief und erweiterbar, dass sie jeden Anwendungsfall unterstützen, egal ob du ein Modellanbieter, ein Tuner oder ein Verbraucher bist. Zusätzlich zu den generativen KI-Funktionen von AWS unterstützt ein breiterer Satz von AWS-Services auch die Möglichkeit, benutzerdefinierte generative KI-Anwendungen zu erstellen, die im nächsten Abschnitt behandelt werden.
Aufbau generativer KI-Anwendungen auf AWS
Eine generative KI-Anwendung umfasst mehr als generative Modelle. Sie erfordert mehrere Komponenten, um zuverlässige, skalierbare und sichere Anwendungen zu erstellen, die dann den Nutzern dieser Anwendung angeboten werden, egal ob es sich um Endnutzer oder andere Systeme handelt, wie in Abbildung 1-5 dargestellt.
Wenn du einen generativen KI-Service wie Amazon CodeWhisperer verwendest, wird all dies vollständig abstrahiert und dem Endbenutzer zur Verfügung gestellt. Für die Entwicklung individueller generativer KI-Anwendungen sind jedoch in der Regel eine Reihe von Services erforderlich. AWS bietet eine Vielzahl von Services, die für die Erstellung einer generativen KI-Anwendung erforderlich sind. Abbildung 1-6 zeigt ein Beispiel für AWS-Services, die als Teil einer breiteren generativen KI-Anwendung genutzt werden können.
Zusammenfassung
In diesem Kapitel hast du einige häufige generative KI-Anwendungsfälle untersucht und einige generative KI-Grundlagen kennengelernt. Außerdem hast du ein Beispiel für einen typischen Lebenszyklus eines generativen KI-Projekts gesehen, der verschiedene Phasen umfasst, darunter die Definition eines Anwendungsfalls, das Prompt-Engineering(Kapitel 2), die Auswahl eines Basismodells(Kapitel 3), die Feinabstimmung (Kapitel 5 und 6), die Anpassung an menschliche Werte(Kapitel 7), die Bereitstellung deines Modells(Kapitel 8) und die Integration mit externen Datenquellen und Agenten(Kapitel 9).
Die rechenintensiven Teile des Lebenszyklus - einschließlich der Feinabstimmung und des menschlichen Abgleichs - werden von einem Verständnis der Quantisierung und der Algorithmen des verteilten Rechnens profitieren(Kapitel 4). Diese Optimierungen und Algorithmen werden den iterativen Entwicklungszyklus beschleunigen, der für die Entwicklung generativer KI-Modelle entscheidend ist.
In Kapitel 2 lernst du einige Tipps und bewährte Methoden für das Prompt-Engineering kennen. Diese sind nützlich für die Eingabeaufforderung von rein sprachlichen Basismodellen(Kapitel 3) und multimodalen Basismodellen (Kapitel 10 und 11), die entweder mit dem Amazon SageMaker JumpStart Model Hub(Kapitel 3) oder dem Amazon Bedrock Managed Generative AI Service(Kapitel 12) erstellt werden.
Get Generative KI auf AWS now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.