Vorwort
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Was ich nicht erschaffen kann, verstehe ich nicht.
Richard Feynman
Generative KI ist eine der revolutionärsten Technologien unserer Zeit und verändert die Art und Weise, wie wir mit Maschinen interagieren. Ihr Potenzial, die Art und Weise, wie wir leben, arbeiten und spielen, zu revolutionieren, ist Gegenstand unzähliger Gespräche, Debatten und Vorhersagen. Aber was wäre, wenn es ein noch größeres Potenzial für diese mächtige Technologie gäbe? Was wäre, wenn die Möglichkeiten der generativen KI über unsere derzeitige Vorstellungskraft hinausgehen? Die Zukunft der generativen KI könnte aufregender sein, als wir je für möglich gehalten haben...
Seit unseren frühesten Tagen haben wir nach Möglichkeiten gesucht, originelle und schöne Kreationen zu schaffen. Bei den frühen Menschen geschah dies in Form von Höhlenmalereien, die wilde Tiere und abstrakte Muster darstellten, die mit sorgfältig und methodisch auf Felsen aufgetragenen Pigmenten geschaffen wurden. Die Romantik brachte uns die Meisterschaft der Tschaikowsky-Sinfonien, die durch Klangwellen, die zu wunderschönen Melodien und Harmonien verwoben wurden, Gefühle von Triumph und Tragödie hervorrufen konnten. Und in jüngster Zeit stürmen wir um Mitternacht in die Buchläden, um Geschichten über einen fiktiven Zauberer zu kaufen, weil die Kombination von Buchstaben eine Erzählung erschafft, die uns dazu bringt, die Seite umzublättern und herauszufinden, was mit unserem Helden passiert.
Es ist daher nicht verwunderlich, dass die Menschheit begonnen hat, sich die ultimative Frage nach der Kreativität zu stellen: Können wir etwas erschaffen, das an sich schon kreativ ist?
Das ist die Frage, die die generative KI beantworten will. Mit den jüngsten Fortschritten in Methodik und Technologie sind wir heute in der Lage, Maschinen zu bauen, die originelle Kunstwerke in einem bestimmten Stil malen, zusammenhängende Textblöcke mit langfristiger Struktur schreiben, Musik komponieren, die angenehm zu hören ist, und Gewinnstrategien für komplexe Spiele entwickeln, indem sie imaginäre Zukunftsszenarien erzeugen. Dies ist nur der Anfang einer generativen Revolution, die uns keine andere Wahl lassen wird, als Antworten auf einige der größten Fragen über die Mechanismen der Kreativität zu finden, und letztlich darüber, was es bedeutet, ein Mensch zu sein.
Kurz gesagt: Es gab noch nie einen besseren Zeitpunkt, um etwas über generative KI zu lernen - also lass uns loslegen!
Zielsetzung und Ansatz
Dieses Buch setzt keine Vorkenntnisse über generative KI voraus. Wir bauen alle Schlüsselkonzepte von Grund auf auf, und zwar so, dass sie intuitiv und leicht nachvollziehbar sind. Mach dir also keine Sorgen, wenn du keine Erfahrung mit generativer KI hast. Hier bist du genau richtig!
Dieses Buch deckt nicht nur die Techniken ab, die derzeit in Mode sind, sondern ist ein umfassender Leitfaden zur generativen Modellierung, der eine breite Palette von Modellfamilien abdeckt. Es gibt keine Technik, die objektiv besser oder schlechter ist als eine andere - tatsächlich mischen viele moderne Modelle Ideen aus dem breiten Spektrum der generativen Modellierung. Aus diesem Grund ist es wichtig, sich über die Entwicklungen in allen Bereichen der generativen KI auf dem Laufenden zu halten, anstatt sich auf eine bestimmte Technik zu konzentrieren. Eines ist sicher: Das Feld der generativen KI entwickelt sich rasant, und man weiß nie, woher die nächste bahnbrechende Idee kommt!
Vor diesem Hintergrund möchte ich dir zeigen, wie du deine eigenen generativen Modelle auf deinen eigenen Daten trainieren kannst, anstatt dich auf vorgefertigte Modelle von der Stange zu verlassen. Zwar gibt es inzwischen viele beeindruckende generative Open-Source-Modelle, die mit ein paar Codezeilen heruntergeladen und ausgeführt werden können, doch das Ziel dieses Buches ist es, ihre Architektur und ihr Design von Grund auf zu verstehen, damit du ein vollständiges Verständnis ihrer Funktionsweise erlangst und Beispiele für jede Technik von Grund auf mit Python und Keras programmieren kannst.
Zusammenfassend kann man dieses Buch als eine Karte der aktuellen generativen KI-Landschaft betrachten, die sowohl die Theorie als auch die praktischen Anwendungen abdeckt und vollständige Arbeitsbeispiele der wichtigsten Modelle aus der Literatur enthält. Wir gehen den Code für jedes Modell Schritt für Schritt durch, mit klaren Hinweisen, die zeigen, wie der Code die Theorie, die jeder Technik zugrunde liegt, umsetzt. Dieses Buch kann von vorne bis hinten durchgelesen oder als Nachschlagewerk verwendet werden, in das du eintauchen kannst. Ich hoffe, dass es dir nützlich ist und dir Spaß macht, es zu lesen!
Hinweis
Im ganzen Buch findest du kurze, allegorische Geschichten, die die Mechanik einiger der Modelle erklären, die wir bauen werden. Ich glaube, dass eine der besten Methoden, eine neue abstrakte Theorie zu vermitteln, darin besteht, sie zunächst in etwas nicht ganz so Abstraktes wie eine Geschichte zu verwandeln, bevor man sich der technischen Erklärung zuwendet. Bei der Geschichte und der Erklärung des Modells handelt es sich um dieselbe Mechanik, die in zwei verschiedenen Bereichen erklärt wird - es kann also nützlich sein, sich auf die entsprechende Geschichte zu beziehen, während man die technischen Details des jeweiligen Modells lernt!
Voraussetzungen
Dieses Buch setzt voraus, dass du Erfahrung mit der Programmiersprache Python hast. Wenn du mit Python nicht vertraut bist, kannst du am besten mit LearnPython.org beginnen. Es gibt viele kostenlose Ressourcen im Internet, mit denen du genügend Python-Kenntnisse erwerben kannst, um mit den Beispielen in diesem Buch zu arbeiten.
Da einige der Modelle mit mathematischer Notation beschrieben werden, sind solide Kenntnisse der linearen Algebra (z. B. Matrixmultiplikation) und der allgemeinen Wahrscheinlichkeitstheorie von Vorteil. Eine nützliche Quelle ist das Buch Mathematics for Machine Learning (Cambridge University Press) von Deisenroth und anderen, das kostenlos erhältlich ist.
Das Buch setzt keine Vorkenntnisse über generative Modellierung (wir werden die Schlüsselkonzepte in Kapitel 1 untersuchen) oder TensorFlow und Keras (diese Bibliotheken werden in Kapitel 2 vorgestellt) voraus.
Straßenkarte
Dieses Buch ist in drei Teile gegliedert.
Teil I ist eine allgemeine Einführung in die generative Modellierung und das Deep Learning, in der wir die Kernkonzepte erkunden, die allen Techniken in den späteren Teilen des Buches zugrunde liegen:
-
In Kapitel 1, "Generative Modellierung", definieren wir die generative Modellierung und betrachten ein Spielzeugbeispiel, mit dem wir einige der Schlüsselkonzepte verstehen können, die für alle generativen Modelle wichtig sind. Außerdem stellen wir die Taxonomie der generativen Modellfamilien vor, die wir in Teil II dieses Buches untersuchen werden.
-
In Kapitel 2, "Deep Learning", beginnen wir mit der Erforschung von Deep Learning und neuronalen Netzen, indem wir unser erstes Beispiel eines mehrschichtigen Perzeptrons (MLP) mit Keras erstellen. Dann passen wir es an, indem wir Faltungsschichten und andere Verbesserungen einbauen, um den Leistungsunterschied zu beobachten.
Teil II stellt die sechs wichtigsten Techniken vor, die wir für die Erstellung generativer Modelle verwenden werden, mit praktischen Beispielen für jede Technik:
-
In Kapitel 3, "Variationale Autoencoder", betrachten wir den Variationalen Autoencoder (VAE) und sehen, wie er verwendet werden kann, um Bilder von Gesichtern zu erzeugen und zwischen Gesichtern im latenten Raum des Modells zu morphen.
-
In Kapitel 4, "Generative adversarische Netze", untersuchen wir generative adversarische Netze (GANs) für die Bilderzeugung, einschließlich Deep Convolutional GANs, Conditional GANs und Verbesserungen wie das Wasserstein GAN, die den Trainingsprozess stabiler machen.
-
In Kapitel 5, "Autoregressive Modelle", wenden wir uns den autoregressiven Modellen zu und beginnen mit einer Einführung in rekurrente neuronale Netze wie LSTMs (Long Short Memory Networks) für die Texterzeugung und PixelCNN für die Bilderzeugung.
-
In Kapitel 6, "Normalisierung von Flussmodellen", konzentrieren wir uns auf die Normalisierung von Flüssen, einschließlich einer intuitiven theoretischen Erkundung der Technik und eines praktischen Beispiels, wie man ein RealNVP-Modell zur Bilderzeugung erstellt.
-
In Kapitel 7, "Energiebasierte Modelle", behandeln wir energiebasierte Modelle, einschließlich wichtiger Methoden wie das Training mit kontrastiver Divergenz und die Stichprobe mit Langevin-Dynamik.
-
In Kapitel 8, "Diffusionsmodelle", tauchen wir in einen praktischen Leitfaden zur Erstellung von Diffusionsmodellen ein, die viele moderne Modelle zur Bilderzeugung wie DALL.E 2 und Stable Diffusion steuern.
In Teil III schließlich bauen wir auf diesen Grundlagen auf, um das Innenleben modernster Modelle für die Bilderzeugung, das Schreiben, das Komponieren von Musik und das modellbasierte Verstärkungslernen zu untersuchen:
-
In Kapitel 9, "Transformers", untersuchen wir die Abstammung und die technischen Details der StyleGAN-Modelle sowie andere moderne GANs für die Bilderzeugung wie VQ-GAN.
-
In Kapitel 10, "Fortgeschrittene GANs", befassen wir uns mit der Transformer-Architektur und zeigen dir, wie du deine eigene Version von GPT für die Textgenerierung erstellen kannst.
-
In Kapitel 11, "Musikgenerierung", widmen wir uns der Musikgenerierung, einschließlich einer Anleitung zur Arbeit mit Musikdaten und der Anwendung von Techniken wie Transformers und MuseGAN.
-
In Kapitel 12, "Weltmodelle", sehen wir, wie generative Modelle im Kontext des Verstärkungslernens eingesetzt werden können, und zwar mit der Anwendung von Weltmodellen und Transformator-basierten Methoden.
-
In Kapitel 13, "Multimodale Modelle", erklären wir die Funktionsweise von vier hochmodernen multimodalen Modellen, die mehr als einen Datentyp berücksichtigen, darunter DALL.E 2, Imagen und Stable Diffusion für die Text-Bild-Erzeugung und Flamingo, ein visuelles Sprachmodell.
-
In Kapitel 14, "Fazit", fassen wir die wichtigsten Meilensteine der generativen KI zusammen und erörtern, wie die generative KI unseren Alltag in den kommenden Jahren revolutionieren wird.
Änderungen in der zweiten Auflage
Vielen Dank an alle, die die erste Ausgabe dieses Buches gelesen haben - ich freue mich sehr, dass so viele von euch es als nützliche Ressource empfunden und uns Feedback zu den Dingen gegeben haben, die ihr gerne in der zweiten Ausgabe sehen würdet. Das Gebiet des generativen Deep Learning hat sich seit der Veröffentlichung der ersten Ausgabe im Jahr 2019 erheblich weiterentwickelt. Daher habe ich nicht nur die bestehenden Inhalte aufgefrischt, sondern auch einige neue Kapitel hinzugefügt, um das Material auf den aktuellen Stand der Technik zu bringen.
Im Folgenden findest du eine Zusammenfassung der wichtigsten Aktualisierungen in Bezug auf die einzelnen Kapitel und allgemeine Verbesserungen im Buch:
-
Kapitel 1 enthält nun einen Abschnitt über die verschiedenen Familien generativer Modelle und eine Taxonomie ihrer Zusammenhänge.
-
Kapitel 2 enthält verbesserte Diagramme und ausführlichere Erklärungen der wichtigsten Konzepte.
-
Kapitel 3 wurde mit einem neuen Arbeitsbeispiel und begleitendenErklärungen aufgefrischt.
-
Kapitel 4 enthält nun eine Erklärung der bedingten GAN-Architekturen.
-
Kapitel 5 enthält jetzt einen Abschnitt über autoregressive Modelle für Bilder (z. B.PixelCNN).
-
Kapitel 6 ist ein völlig neues Kapitel, in dem das RealNVP-Modell beschrieben wird.
-
Kapitel 7 ist ebenfalls ein neues Kapitel, in dem es um Techniken wie Langevin-Dynamik und kontrastive Divergenz geht.
-
Kapitel 8 ist ein neu geschriebenes Kapitel über die Entrauschung von Diffusionsmodellen, die viele der modernen Anwendungen unterstützen.
-
Kapitel 9 ist eine Erweiterung des Materials, das am Ende der ersten Ausgabe zur Verfügung gestellt wurde, mit einem tieferen Fokus auf die Architekturen der verschiedenen StyleGAN-Modelle und neuem Material über VQ-GAN.
-
Kapitel 10 ist ein neues Kapitel, in dem die Transformer-Architektur im Detail erklärt wird.
-
Kapitel 11 enthält moderne Transformer-Architekturen, die die LSTM-Modelle aus der ersten Ausgabe ersetzen.
-
Kapitel 12 enthält aktualisierte Diagramme und Beschreibungen sowie einen Abschnitt darüber, wie dieser Ansatz das moderne Reinforcement Learning heute beeinflusst.
-
Kapitel 13 ist ein neues Kapitel, das im Detail erklärt, wie beeindruckende Modelle wie DALL.E 2, Imagen, Stable Diffusion und Flamingo funktionieren.
-
Kapitel 14 wurde aktualisiert, um die herausragenden Fortschritte auf diesem Gebiet seit der ersten Ausgabe widerzuspiegeln und einen umfassenderen und detaillierteren Überblick darüber zu geben, wohin sich die generative KI in Zukunft entwickelt.
-
Alle Kommentare, die als Feedback zur ersten Ausgabe gegeben wurden, und die gefundenen Tippfehler wurden (nach bestem Wissen und Gewissen!) korrigiert.
-
Am Anfang jedes Kapitels wurden Kapitelziele hinzugefügt, damit du die wichtigsten Themen des Kapitels siehst, bevor du mit dem Lesen beginnst.
-
Einige der allegorischen Geschichten wurden umgeschrieben, um sie prägnanter undklarer zu machen- ich freue mich, dass so viele Leserinnen und Leser gesagt haben, dass die Geschichten ihnen geholfen haben, die Schlüsselkonzepte besser zu verstehen!
-
Die Überschriften und Unterüberschriften jedes Kapitels wurden so ausgerichtet, dass klar ist, welche Teile des Kapitels sich auf Erklärungen und welche auf den Bau eigener Modelle konzentrieren.
Andere Ressourcen
Ich empfehle die folgenden Bücher als allgemeine Einführungen in maschinelles Lernen und Deep Learning:
-
Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems von Aurélien Géron (O'Reilly)
-
Deep Learning mit Python von Francois Chollet (Manning)
Die meisten der Beiträge in diesem Buch stammen von arXiv, einem kostenlosen Repository für wissenschaftliche Forschungsarbeiten. Heutzutage ist es üblich, dass Autoren ihre Arbeiten auf arXiv veröffentlichen, bevor sie vollständig von Fachkollegen geprüft worden sind. Ein Blick auf die neuesten Beiträge ist eine gute Möglichkeit, sich über die neuesten Entwicklungen auf dem Gebiet auf dem Laufenden zu halten.
Ich empfehle auch die Website Papers with Code, auf der du die neuesten Ergebnisse zum Stand der Technik in einer Reihe von Aufgaben des maschinellen Lernens findest, zusammen mit Links zu den Papers und den offiziellen GitHub-Repositories. Sie ist eine hervorragende Ressource für alle, die sich schnell einen Überblick darüber verschaffen wollen, welche Techniken derzeit bei einer Reihe von Aufgaben am besten abschneiden, und hat mir auf jeden Fall bei der Entscheidung geholfen, welche Techniken ich in dieses Buch aufnehmen soll.
In diesem Buch verwendete Konventionen
In diesem Buch werden die folgenden typografischen Konventionen verwendet:
- Kursiv
-
Weist auf neue Begriffe, URLs, E-Mail-Adressen, Dateinamen und Dateierweiterungen hin.
Constant width
-
Wird für Befehle und Programmlistings sowie innerhalb von Absätzen verwendet, um auf Programmelemente wie Variablen- oder Funktionsnamen zu verweisen.
Constant width italic
-
Zeigt Text an, der durch vom Benutzer eingegebene Werte oder durch kontextabhängige Werte ersetzt werden soll.
Tipp
Dieses Element steht für einen Tipp oder eine Anregung.
Hinweis
Dieses Element steht für einen allgemeinen Hinweis.
Warnung
Dieses Element steht für eine Warnung oder Vorsicht.
Codebase
Die Codebeispiele in diesem Buch sind in einem GitHub-Repository zu finden. Ich habe bewusst darauf geachtet, dass keines der Modelle übermäßig große Rechenressourcen zum Trainieren benötigt, damit du mit dem Training deiner eigenen Modelle beginnen kannst, ohne viel Zeit oder Geld für teure Hardware ausgeben zu müssen. Im Repository gibt es eine ausführliche Anleitung, wie du mit Docker loslegst und bei Bedarf Cloud-Ressourcen mit GPUs auf Google Cloud einrichtest.
Die folgenden Änderungen wurden seit der ersten Ausgabe an der Codebasis vorgenommen:
-
Alle Beispiele können jetzt in einem einzigen Notebook ausgeführt werden, anstatt dass der Code aus Modulen der gesamten Codebasis importiert wird. So kannst du jedes Beispiel Zelle für Zelle ausführen und dir genau ansehen, wie jedes Modell Stück für Stück aufgebaut ist.
-
Die Abschnitte der einzelnen Hefte sind jetzt weitgehend an die Beispiele angepasst.
-
Viele der Beispiele in diesem Buch verwenden jetzt Codeschnipsel aus dem großartigen Open-Source-Repository von Keras. Damitsoll vermieden werden, dass ein völlig losgelöstes Open-Source-Repository mit generativen KI-Beispielen von Keras entsteht, wo es doch bereits hervorragende Implementierungen auf der Keras-Website gibt. Ich habe in diesem Buch und im Repository Verweise und Links zu den Originalautoren des Codes, den ich auf der Keras-Website verwendet habe, hinzugefügt.
-
Ich habe neue Datenquellen hinzugefügt und den Prozess der Datenerfassung gegenüber der ersten Ausgabe verbessert - jetzt gibt es ein Skript, das einfach ausgeführt werden kann, um Daten aus den benötigten Quellen zu sammeln, um die Beispiele im Buch zu trainieren, indem Tools wie die Kaggle-API verwendet werden.
Code-Beispiele verwenden
Zusätzliches Material (Code-Beispiele, Übungen usw.) steht unter https://github.com/davidADSP/Generative_Deep_Learning_2nd_Edition zum Download bereit .
Wenn du eine technische Frage oder ein Problem mit den Codebeispielen hast, sende bitte eine E-Mail an bookquestions@oreilly.com.
Dieses Buch soll dir helfen, deine Arbeit zu erledigen. Wenn in diesem Buch Beispielcode angeboten wird, darfst du ihn in deinen Programmen und deiner Dokumentation verwenden. Du musst uns nicht um Erlaubnis fragen, es sei denn, du reproduzierst einen großen Teil des Codes. Wenn du zum Beispiel ein Programm schreibst, das mehrere Teile des Codes aus diesem Buch verwendet, brauchst du keine Erlaubnis. Der Verkauf oder die Verbreitung von Beispielen aus O'Reilly-Büchern erfordert jedoch eine Genehmigung. Die Beantwortung einer Frage mit einem Zitat aus diesem Buch und einem Beispielcode erfordert keine Genehmigung. Wenn du einen großen Teil des Beispielcodes aus diesem Buch in die Dokumentation deines Produkts aufnimmst, ist eineGenehmigung erforderlich.
Wir schätzen die Namensnennung, verlangen sie aber nicht. Eine Quellenangabe umfasst normalerweise den Titel, den Autor, den Verlag und die ISBN. Zum Beispiel: "Generative Deep Learning, 2. Auflage, von David Foster (O'Reilly). Copyright 2023 Applied Data Science Partners Ltd, 978-1-098-13418-1."
Wenn du der Meinung bist, dass die Verwendung von Code-Beispielen nicht unter die Fair-Use-Regelung oder die oben genannte Erlaubnis fällt, kannst du uns gerne unter permissions@oreilly.com kontaktieren .
O'Reilly Online Learning
Hinweis
Seit mehr als 40 Jahren bietet O'Reilly Media Schulungen, Wissen und Einblicke in Technologie und Wirtschaft, um Unternehmen zum Erfolg zu verhelfen.
Unser einzigartiges Netzwerk von Experten und Innovatoren teilt sein Wissen und seine Erfahrung durch Bücher, Artikel und unsere Online-Lernplattform. Die Online-Lernplattform von O'Reilly bietet dir On-Demand-Zugang zu Live-Trainingskursen, ausführlichen Lernpfaden, interaktiven Programmierumgebungen und einer umfangreichen Text- und Videosammlung von O'Reilly und über 200 anderen Verlagen. Weitere Informationen erhältst du unter https://oreilly.com.
Wie du uns kontaktierst
Bitte richte Kommentare und Fragen zu diesem Buch an den Verlag:
- O'Reilly Media, Inc.
- 1005 Gravenstein Highway Nord
- Sebastopol, CA 95472
- 800-889-8969 (in den Vereinigten Staaten oder Kanada)
- 707-827-7019 (international oder lokal)
- 707-829-0104 (Fax)
- support@oreilly.com
- https://www.oreilly.com/about/contact.html
Wir haben eine Webseite für dieses Buch, auf der wir Errata, Beispiele und zusätzliche Informationen auflisten. Du kannst diese Seite unter https://oreil.ly/generative-dl-2e aufrufen .
Neuigkeiten und Informationen über unsere Bücher und Kurse findest du unter https://oreilly.com.
Finde uns auf LinkedIn: https://linkedin.com/company/oreilly-media
Schau uns auf YouTube: https://youtube.com/oreillymedia
Danksagungen
Es gibt so viele Menschen, denen ich dafür danken möchte, dass sie mir geholfen haben, dieses Buch zu schreiben.
Zunächst möchte ich allen danken, die sich die Zeit genommen haben, das Buch technisch zu rezensieren - insbesondere Vishwesh Ravi Shrimali, Lipi Deepaakshi Patnaik, Luba Elliot und Lorna Barclay. Vielen Dank auch an Samir Bico für seine Hilfe bei der Überprüfung und dem Testen der Codebasis, die diesem Buch beiliegt. Dein Beitrag war von unschätzbarem Wert.
Ein großer Dank geht auch an meine Kollegen bei Applied Data Science Partners, Ross Witeszczak, Amy Bull, Ali Parandeh, Zine Eddine, Joe Rowe, Gerta Salillari, Aleshia Parkes, Evelina Kireilyte, Riccardo Tolli, Mai Do, Khaleel Syed und Will Holmes. Ich weiß eure Geduld mit mir zu schätzen, während ich mir Zeit für die Fertigstellung des Buches genommen habe, und ich freue mich schon sehr auf all die Projekte im Bereich des maschinellen Lernens, die wir in Zukunft gemeinsam durchführen werden! Ein besonderer Dank geht an Ross - hätten wir nicht beschlossen, gemeinsam ein Unternehmen zu gründen, hätte dieses Buch vielleicht nie Gestalt angenommen, also danke, dass du an mich als Geschäftspartnerin geglaubt hast!
Ich möchte mich auch bei allen bedanken, die mir jemals etwas Mathematisches beigebracht haben - ich hatte das große Glück, in der Schule fantastische Mathelehrer zu haben, die mein Interesse an dem Fach geweckt und mich ermutigt haben, es an der Universität weiter zu verfolgen. Ich möchte mich bei Ihnen für Ihr Engagement und dafür bedanken, dass Sie keine Mühen gescheut haben, um Ihr Fachwissen mit mir zu teilen.
Ein großes Dankeschön geht an die Mitarbeiter von O'Reilly, die mich bei der Erstellung dieses Buches unterstützt haben. Ein besonderer Dank geht an Michele Cronin, die bei jedem Schritt dabei war, mir nützliches Feedback gab und mich freundlich daran erinnerte, die Kapitel fertigzustellen! Außerdem danke ich Nicole Butterfield, Christopher Faucher, Charles Roumeliotis und Suzanne Huston dafür, dass sie das Buch in die Produktion gebracht haben, und Mike Loukides dafür, dass er mich gefragt hat, ob ich Interesse hätte, ein Buch zu schreiben. Ihr alle habt mich von Anfang an bei diesem Projekt unterstützt und ich möchte euch dafür danken, dass ihr mir eine Plattform bietet, auf der ich über etwas schreiben kann, das ich liebe.
Während des gesamten Schreibprozesses war meine Familie eine ständige Quelle der Ermutigung und Unterstützung. Ein großes Dankeschön geht an meine Mutter, Gillian Foster, die jede einzelne Zeile auf Tippfehler überprüft und mir beigebracht hat, wie man zusammenzählt! Deine Liebe zum Detail hat mir beim Korrekturlesen dieses Buches sehr geholfen, und ich bin wirklich dankbar für all die Möglichkeiten, die du und Dad mir gegeben habt. Mein Vater, Clive Foster, hat mir ursprünglich beigebracht, wie man einen Computer programmiert - dieses Buch ist voller praktischer Beispiele, und das verdanke ich seiner frühen Geduld, als ich als Teenager in BASIC herumfummelte und versuchte, Fußballspiele zu entwickeln. Mein Bruder Rob Foster ist das bescheidenste Genie, das du je finden wirst, besonders im Bereich der Linguistik - mit ihm über KI und die Zukunft des textbasierten maschinellen Lernens zu plaudern, war unglaublich hilfreich. Zuletzt möchte ich meiner Oma danken, die für uns alle eine ständige Quelle der Inspiration und des Spaßes war. Ihre Liebe zur Literatur war einer der Gründe, warum ich zum ersten Mal beschloss, dass es spannend wäre, ein Buch zu schreiben.
Ich möchte auch meiner Frau, Lorna Barclay, danken. Du hast mich nicht nur während des gesamten Schreibprozesses mit endloser Unterstützung und Tassen Tee versorgt, sondern auch jedes Wort dieses Buches bis ins kleinste Detail kontrolliert. Ohne dich hätte ich es nicht geschafft. Danke, dass ihr immer für mich da seid und diese Reise so viel angenehmer gemacht habt. Ich verspreche, dass ich zumindest für ein paar Tage nach der Veröffentlichung des Buches nicht mehr über generative KI am Esstisch sprechen werde.
Zu guter Letzt möchte ich unserer wunderbaren kleinen Tochter Alina dafür danken, dass sie mich in den langen Nächten des Buchschreibens immer wieder unterhalten hat. Ihr bezauberndes Kichern war die perfekte Hintergrundmusik für meine Schreibarbeit. Danke, dass du meine Inspiration bist und mich immer auf Trab hältst. Du bist der wahre Kopf hinter dieser Operation.
Get Generatives Deep Learning, 2. Auflage now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.