Vorwort

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Es war 21:25 Uhr und das sanfte Leuchten von Danas Computerbildschirm blendete ihre müden Augen, als sie sich einloggte, um einen Fehler zu beheben - rote Pipelines und unzählige offene Tabs füllten ihren Bildschirm. Sie hatte zu Abend gegessen und ihre alltäglichen Aufgaben erledigt, aber ihre Gedanken waren nicht wirklich bei der Sache - und zwar an mehreren Stellen.

Es war ein anstrengender Tag, an dem sie zwischen langen Trainingsläufen und Hin- und Her-Nachrichten mit dem Support-Team über Kundenanfragen, warum das Modell ihre Kreditanträge ablehnte, hin und her pendelte. Sie war ständig damit beschäftigt, herauszufinden, warum die Leistung des Modells trotz verschiedener Änderungen an den Daten und der Modellarchitektur nicht besser wurde. Die gelegentlichen Stack Traces machten alles nur noch schlimmer.

Sie war müde und der Haufen unbestätigter Codeänderungen, der auf ihrem lokalen Rechner lag, trug zu der latenten kognitiven Belastung bei, die in ihrem Kopf brodelte. Aber sie musste weitermachen - ihr Team hatte den ursprünglichen Veröffentlichungstermin bereits um vier Monate verpasst, und die Ungeduld der Führungskräfte machte sich bemerkbar. Erschwerend kam die Angst hinzu, dass ihr Job auf dem Spiel stehen könnte. Einer von zehn Mitarbeitern in ihrem Unternehmen - darunter mehrere, die sie kannte - wurde im Zuge der jüngsten Sparmaßnahmen entlassen.

Alle in ihrem Team waren gutmütig und fähig, aber sie steckten jeden Tag in einem Sumpf aus langwierigen Tests, angstbesetzten Produktionseinsätzen und unleserlichem und brüchigem Code fest. Nach ein paar Monaten Arbeit waren sie alle zermürbt. Sie taten ihr Bestes, aber es fühlte sich an, als würden sie ein Haus ohne Fundament bauen - es fiel immer wieder in sich zusammen.

Viele Menschen beginnen ihre Reise in das maschinelle Lernen (ML) mit großem Elan und gewinnen dank des wachsenden Ökosystems von Tools, Techniken, Tutorials und der Gemeinschaft von ML-Praktikern schnell Vertrauen. Wenn wir jedoch die kontrollierte Umgebung von Tutorial-Notizbüchern und Kaggle-Wettbewerben hinter uns lassen und in die Welt der realen Probleme, unordentlichen Daten, vernetzten Systeme und Menschen mit unterschiedlichen Zielen eintauchen, haben viele von uns unweigerlich Schwierigkeiten, das Potenzial von ML in der Praxis zu erkennen.

Wenn wir die glamourösen Behauptungen, Data Science sei der sexieste Job, entkräften, sehen wir oft ML-Praktiker, die in mühsamer manueller Arbeit, komplexen und brüchigen Codebases und Frustration über sisyphushafte ML-Experimente, die nie das Licht der Welt in der Produktion erblicken, versinken.

Im Jahr 2019 wurde berichtet, dass 87 % der Data-Science-Projekte es nie in die Produktion schaffen. Laut Algorithmia's 2021 Enterprise AI/ML Trends geben 64% der befragten Unternehmen an, dass es mehr als einen Monat dauert, um ein neues Modell in Betrieb zu nehmen - ein Anstieg gegenüber 56% im Jahr 2020. Algorithmia fand außerdem heraus, dass 38 % der befragten Unternehmen mehr als 50 % der Zeit ihrer Data Scientists für die Modellbereitstellung aufwenden.

Diese Hindernisse behindern oder verhindern in manchen Fällen sogar, dass ML-Praktiker ihr Fachwissen einsetzen, um den Wert und das Versprechen von KI für Kunden und Unternehmen zu erfüllen. Aber die gute Nachricht ist, dass es nicht so sein muss. In den letzten Jahren hatten wir das Privileg, an verschiedenen Daten- und ML-Projekten zu arbeiten und mit ML-Fachleuten aus verschiedenen Branchen zusammenzuarbeiten. Wie wir oben beschrieben haben, gibt es zwar Hindernisse und Schmerzen, aber es gibt auch bessere Wege, Praktiken und Arbeitssysteme, die es ML-Fachleuten ermöglichen, ML-fähige Produkte zuverlässig an die Kunden zu liefern.

Genau darum geht es in diesem Buch. Wir werden aus unseren Erfahrungen eine Reihe von dauerhaften Prinzipien und Praktiken destillieren, die uns immer wieder dabei helfen, ML-Lösungen in der realen Welt effektiv umzusetzen. Diese Praktiken funktionieren, weil sie auf einem ganzheitlichen Ansatz für den Aufbau von ML-Systemen basieren. Sie gehen über ML hinaus und schaffen wichtige Rückkopplungsschleifen in verschiedenen Subsystemen (z. B. Produkt, Technik, Daten, Lieferprozesse, Teamtopologien) und ermöglichen es den Teams, schnell und sicher fehlzuschlagen, schnell zu experimentieren und zuverlässig zu liefern.

Für wen dieses Buch ist

Ob du glaubst, dass du es kannst oder nicht - du hast recht.

Henry Ford

Egal, ob du ein ML-Praktiker in der Wissenschaft, einem Unternehmen, einem Start-up, einem Scale-up oder einer Beratungsfirma bist, die Prinzipien und Praktiken in diesem Buch können dir und deinem Team helfen, ML-Lösungen effektiver zu entwickeln. Im Einklang mit der funktionsübergreifenden Natur der ML-Bereitstellungstechniken, die wir in diesem Buch detailliert beschreiben, gehen wir auf die Belange und Bestrebungen der verschiedenen Rollen in ML-Teams ein:

Datenwissenschaftler und ML-Ingenieure

Der Aufgabenbereich eines Data Scientist hat sich in den letzten Jahren weiterentwickelt. Anstatt sich nur auf Modellierungstechniken und Datenanalyse zu konzentrieren, wird (implizit oder explizit) erwartet, dass man die Fähigkeiten eines Data Scientist mitbringt: Datenverarbeitung, ML-Engineering, MLOps und die Formulierung von Geschäftsszenarien und vieles mehr. Dieses Buch erläutert die Fähigkeiten, die Datenwissenschaftler/innen und ML-Ingenieure/innen benötigen, um ML-Lösungen in der Praxis zu entwickeln und umzusetzen.

In der Vergangenheit haben wir die Prinzipien, Praktiken und praktischen Übungen in diesem Buch Datenwissenschaftlern, ML-Ingenieuren, Doktoranden, Softwareentwicklern, Qualitätsanalysten und Produktmanagern vorgestellt und durchweg positive Rückmeldungen erhalten. Die ML-Praktiker, mit denen wir in der Branche zusammengearbeitet haben, sagten, dass sie von der Verbesserung der Feedback-Zyklen, des Arbeitsflusses und der Zuverlässigkeit profitiert haben, die durch Praktiken wie automatisierte Tests und Refactoring erreicht wurden. Wir haben festgestellt, dass die ML-Gemeinschaft den Wunsch hat, diese Fähigkeiten und Praktiken zu erlernen, und dies ist unser Versuch, die Verbreitung dieses Wissens zu fördern.

Softwareentwickler, Infrastruktur- und Plattformingenieure, Architekten

Wenn wir Workshops zu den in diesem Buch behandelten Themen veranstalten, treffen wir häufig auf Softwareentwickler, Infrastruktur- und Plattformingenieure sowie Architekten, die im Bereich ML arbeiten. Fähigkeiten aus der Software-Welt (z. B. Infrastructure-as-Code, Deployment-Automatisierung, automatisierte Tests) sind zwar für die Entwicklung und Bereitstellung von ML-Lösungen in der realen Welt notwendig, reichen aber auch nicht aus. Um zuverlässige ML-Lösungen zu entwickeln, müssen wir den Blick über den Tellerrand der Software hinaus wagen und andere Prinzipien und Praktiken wie ML-Modelltests, zweigleisige Bereitstellung, kontinuierliche Entwicklung und ML-Governance in Betracht ziehen, um die besonderen Herausforderungen von ML zu bewältigen.

Produktmanager, Liefermanager, technische Leiter

Wenn wir denken, dass wir nur Datenwissenschaftler und ML-Ingenieure brauchen, um ein ML-Produkt zu entwickeln, sind wir zum Scheitern verurteilt. Unsere Erfahrung zeigt jedoch, dass Teams am effektivsten sind, wenn sie funktionsübergreifend zusammenarbeiten und über die notwendigen ML-, Daten-, Technik-, Produkt- und Lieferfähigkeiten verfügen.

In diesem Buch erläutern wir, wie du Lean Delivery und Systemdenken anwenden kannst, um Strukturen zu schaffen, die Teams dabei helfen, sich auf die Stimme des Kunden zu konzentrieren, Feedbackschleifen zu verkürzen, schnell und zuverlässig zu experimentieren und iterativ das Richtige zu bauen. Wie W. Edwards Deming einmal sagte: "Ein schlechtes System schlägt einen guten Menschen jedes Mal." Wir teilen also Prinzipien und Praktiken, die Teams dabei helfen, Strukturen zu schaffen, die den Informationsfluss optimieren, Verschwendung reduzieren (z. B. Übergaben, Abhängigkeiten) und den Wert steigern.

Wenn wir unseren Job richtig gemacht haben, wird dieses Buch dich dazu einladen, genau hinzuschauen, wie Dinge in ML und in deinen Teams "schon immer gemacht" wurden, darüber nachzudenken, wie gut sie für dich funktionieren, und bessere Alternativen in Betracht zu ziehen. Lies dieses Buch unvoreingenommen und - bei den Kapiteln, die sich mit Technik befassen - mit einem offenen Code-Editor. Wie Peter M. Senge in seinem Buch The Fifth Discipline (Doubleday) sagt: "Das Aufnehmen von Informationen ist nur entfernt mit echtem Lernen verbunden. Es wäre unsinnig zu sagen: 'Ich habe gerade ein tolles Buch über Fahrradfahren gelesen - das habe ich jetzt gelernt.'" Wir möchten euch ermutigen, diese Praktiken in euren Teams auszuprobieren und hoffen, dass ihr aus erster Hand erfahrt, wie wertvoll sie in realen Projekten sind.

Gehe an dieses Buch mit einer Einstellung zur kontinuierlichen Verbesserung heran, nicht mit einer perfektionistischen Einstellung. Es gibt kein perfektes Projekt, bei dem alles perfekt und ohne Probleme funktioniert. Es wird immer Komplexität und Herausforderungen geben (und wir wissen, dass ein gesundes Maß an Herausforderungen für das Wachstum unerlässlich ist), aber die Praktiken in diesem Buch werden dir helfen, die unbeabsichtigte Komplexität zu minimieren, damit du dich auf die wesentliche Komplexität deiner ML-Lösungen und auf die verantwortungsvolle Bereitstellung von Werten konzentrieren kannst.

Wie dieses Buch aufgebaut ist

Kapitel 1, "Herausforderungen und bessere Wege bei der Bereitstellung von ML-Lösungen", ist eine Destillation des gesamten Buches. Wir untersuchen die Gründe, warum und wie ML-Projekte fehlschlagen. Dann zeigen wir einen zuverlässigeren Weg auf, um ML-Lösungen durch die Einführung von Lean-Delivery-Praktiken in fünf Schlüsseldisziplinen zu verbessern: Produkt, Lieferung, maschinelles Lernen, Technik und Daten.

In den übrigen Kapiteln beschreiben wir Praktiken effektiver ML-Teams und ML-Praktiker. In Teil I, "Produkt und Lieferung", gehen wir auf Praktiken in anderen Teilsystemen ein, die für die Bereitstellung von ML-Lösungen notwendig sind, z. B. Produktdenken und Lean Delivery. In Teil II, "Engineering", behandeln wir Praktiken, die ML-Fachleuten bei der Implementierung und Bereitstellung von Lösungen helfen (z. B. automatisiertes Testen, Refactoring, effektive Nutzung des Code-Editors, kontinuierliche Bereitstellung und MLOps). In Teil III, "Teams", untersuchen wir die Dynamik, die sich auf die Effektivität von ML-Teams auswirkt, wie z. B. Vertrauen, gemeinsamer Fortschritt, Vielfalt und auch Techniken zur Steigerung der technischen Effektivität, die dir helfen, leistungsstarke Teams aufzubauen. Wir gehen auch auf die allgemeinen Herausforderungen ein, mit denen Unternehmen konfrontiert sind, wenn sie ML-Praktiken auf mehr als ein oder zwei Teams ausdehnen wollen, und stellen Techniken für Teamtopologien, Interaktionsmodi und Führung vor, mit denen Teams diese Herausforderungen meistern können.

Teil I: Produkt und Lieferung

Kapitel 2, "Produkt- und Lieferpraktiken für ML-Teams"

Wir erörtern Produktfindungstechniken, die uns helfen, Chancen zu erkennen, Markt- und Technologiehypothesen schnell zu testen und uns auf tragfähige Lösungen zu einigen. Indem wir mit den wertvollsten Problemen und praktikablen Lösungen beginnen, stellen wir sicher, dass wir bei der Umsetzung erfolgreich sind. Außerdem wenden wir Lieferpraktiken an, die uns helfen, die Arbeit so zu gestalten, dass ein stetiger Strom von Werten entsteht. Wir gehen auf die besonderen Herausforderungen ein, die sich aus dem experimentellen Charakter und der hohen Unsicherheit bestimmter ML-Probleme ergeben, und besprechen Techniken wie das zweigleisige Liefermodell, das uns hilft, in kürzeren Zyklen schneller zu lernen. Schließlich behandeln wir Techniken zur Messung kritischer Aspekte von ML-Projekten und teilen Techniken zur Identifizierung und zum Management von Projektrisiken.

Teil II: Technik

Kapitel 3 und 4: Effektives Abhängigkeitsmanagement

Hier beschreiben wir Prinzipien und Praktiken - zusammen mit einem praktischen Beispiel, an dem du mitprogrammieren kannst - um konsistente, reproduzierbare, sichere und produktionsnahe Laufzeitumgebungen für deinen Code zu schaffen. Wenn wir loslegen und Lösungen liefern, wirst du sehen, wie du und deine Teamkollegen mit den Praktiken in diesem Kapitel mühelos konsistente Umgebungen erstellen können, anstatt in der Hölle der Abhängigkeiten gefangen zu sein.

Kapitel 5 und 6: Automatisierte Tests für ML-Systeme

In diesen Kapiteln findest du eine Rubrik für das Testen von Komponenten deiner ML-Lösung - seien es Softwaretests, Modelltests oder Datentests. Wir zeigen, wie automatisierte Tests uns dabei helfen, unsere Feedback-Zyklen zu verkürzen und den mühsamen Aufwand für manuelle Tests zu reduzieren oder - noch schlimmer - Fehler in der Produktion zu beheben, die beim manuellen Testen durchgerutscht sind. Wir beschreiben die Grenzen des Softwaretest-Paradigmas für ML-Modelle und zeigen, wie ML-Fitnessfunktionen und Verhaltenstests uns dabei helfen können, das automatisierte Testen von ML-Modellen zu skalieren. Außerdem stellen wir Techniken für das umfassende Testen großer Sprachmodelle (LLMs) und LLM-Anwendungen vor.

Kapitel 7, " Mit einfachen Technikenden Code-Editor aufladen"

Wir zeigen dir, wie du deinen Code-Editor (PyCharm oder VS Code) so konfigurierst, dass du effektiver programmieren kannst. Nachdem wir unsere IDE in ein paar Schritten konfiguriert haben, gehen wir eine Reihe von Tastenkombinationen durch, die dir unter anderem dabei helfen können, das Refactoring zu automatisieren, Probleme automatisch zu erkennen und zu beheben und in deiner Codebasis zu navigieren, ohne sich zu verirren.

Kapitel 8, "Refactoring und Technical Debt Management"

In diesem Kapitel greifen wir auf die Weisheit des Softwaredesigns zurück, um lesbaren, testbaren, wartbaren und entwicklungsfähigen Code zu entwickeln. Im Sinne von "Learning by Doing" erfährst du, wie wir ein problematisches, unordentliches und sprödes Notebook nehmen und Refactoring-Techniken anwenden können, um unsere Codebasis iterativ zu einem modularen, getesteten und lesbaren Zustand zu verbessern. Außerdem lernst du Techniken kennen, die dir und deinem Team helfen können, technische Schulden sichtbar zu machen und Maßnahmen zu ergreifen, um sie auf einem gesunden Niveau zu halten.

Kapitel 9, "MLOps und Continuous Delivery für ML (CD4ML)"

Wir werden einen umfassenden Überblick darüber geben, was MLOps und CI/CD (Continuous Integration and Continuous Delivery) wirklich bedeuten. Spoiler-Alarm: Es geht um mehr als die Automatisierung von Modellimplementierungen und die Definition von CI-Pipelines. Wir entwerfen ein Konzept für die einzigartige Form von CI/CD für ML-Projekte und zeigen dir, wie du die einzelnen Komponenten dieses Konzepts einrichten kannst, um zuverlässige ML-Lösungen zu erstellen und deine Teamkollegen von repetitiven und undifferenzierten Aufgaben zu befreien, damit sie sich auf andere, höherwertige Probleme konzentrieren können. Wir werden uns auch ansehen, wie CD4ML als Risikokontrollmechanismus dient, um Teams bei der Einhaltung von Standards für ML-Governance und verantwortungsvolle KI zu unterstützen.

Teil III: Teams

Kapitel 10, "Bausteine effektiver ML-Teams"

In diesem Kapitel gehen wir über die Mechanik hinaus und verstehen die zwischenmenschlichen Faktoren, die gute Praktiken in effektiven Teams ermöglichen. Wir beschreiben Prinzipien und Praktiken, die dazu beitragen, ein sicheres, menschenzentriertes und wachstumsorientiertes Team zu schaffen. Wir untersuchen Themen wie Vertrauen, Kommunikation, gemeinsame Ziele, zielgerichteten Fortschritt und Vielfalt in Teams. Wir zeigen dir, worauf du achten solltest und welche Taktiken du anwenden kannst, um eine Kultur der Zusammenarbeit, der effektiven Leistung und des Lernens zu fördern.

Kapitel 11, "Effektive ML-Organisationen"

Dieses Kapitel stellt verschiedene Formen für ML-Teams vor und geht auf die allgemeinen Herausforderungen ein, mit denen Unternehmen konfrontiert sind, wenn sie ihre ML-Praxis auf mehrere Teams ausdehnen. Wir stützen uns auf die in Team Topologies (IT Revolution Press) erörterten Strategien und passen sie an. Wir skizzieren einzigartige Strukturen, Prinzipien und Praktiken, die Teams dabei helfen, ein Gleichgewicht zwischen Arbeitsfluss und konzentrierter Expertise, Zusammenarbeit und Autonomie zu finden. Wir bewerten die Vorteile und Grenzen dieser Strukturen und geben Hinweise zu ihrer Weiterentwicklung, damit sie den Bedürfnissen der Organisation entsprechen. Abschließend erörtern wir die Rolle der bewussten Führung und die sie unterstützenden Praktiken bei der Gestaltung agiler, reaktionsfähiger ML-Organisationen.

Zusätzliche Überlegungen

Bevor wir das Vorwort abschließen, möchten wir auf vier Dinge eingehen.

Zunächst möchten wir anerkennen, dass ML mehr ist als überwachtes Lernen und LLMs. Wir können datenintensive (und sogar datenarme) Probleme auch mit anderen Optimierungstechniken lösen (z. B. Reinforcement Learning, Operations Research, Simulation). Außerdem ist ML kein Allheilmittel und einige Probleme können auch ohne ML gelöst werden. Auch wenn wir ein Problem des überwachten Lernens (Vorhersage von Kreditausfällen) als Ankerbeispiel für die Codebeispiele in diesem Buch gewählt haben, sind die Prinzipien und Praktiken auch über das überwachte Lernen hinaus nützlich. Die Kapitel über automatisiertes Testen, Abhängigkeitsmanagement und die Produktivität des Code-Editors sind zum Beispiel auch beim Reinforcement Learning nützlich. Die in Kapitel 2 beschriebenen Produkt- und Auslieferungspraktiken sind für die Erkundungs- und Auslieferungsphasen eines jeden Produkts oder Problembereichs nützlich.

Zweitens: Seitdem Generative KI und LLMs in das öffentliche Bewusstsein und die Produktpläne vieler Unternehmen gerückt sind, haben wir und unsere Kollegen die Möglichkeit, mit Unternehmen zusammenzuarbeiten, um Produkte zu entwickeln, zu gestalten und zu liefern, die generative KI nutzen. LLMs haben zwar zu einem Paradigmenwechsel in der Art und Weise geführt, wie wir Modelle in Richtung der gewünschten Funktionalität steuern oder einschränken, aber die Grundlagen der schlanken Produktentwicklung haben sich nicht verändert. Vielmehr haben uns die grundlegenden Werkzeuge und Techniken in diesem Buch dabei geholfen, Annahmen frühzeitig zu testen, schnell zu iterieren und zuverlässig zu liefern - und dabei selbst bei der Komplexität von generativer KI und LLMs flexibel und zuverlässig zu bleiben.

Drittens, auf die Rolle der Kultur: Effektives maschinelles Lernen und die Praktiken in diesem Buch sind keine Einzelkämpfer - und können es auch nicht sein. Deshalb haben wir das Buch Effektive Machine Learning Teams genannt. Du kannst z. B. nicht die einzige Person sein, die Tests schreibt. In den Unternehmen, mit denen wir zusammengearbeitet haben, ist der Einzelne am effektivsten, wenn die Kultur (innerhalb des Teams, der Abteilung und sogar des Unternehmens) auf diese schlanken und agilen Praktiken abgestimmt ist. Das bedeutet nicht, dass du mit der gesamten Organisation den Ozean zum Kochen bringen musst; es reicht nur nicht aus, es allein zu tun. Steve Aufträge hat einmal gesagt: "Großartige Dinge in der Wirtschaft werden nie von einer Person gemacht. Sie werden von einem Team von Menschen gemacht."

In diesem Buch geht es nicht um Produktivität (wie man so viele Features, Stories oder Code wie möglich ausliefert) und auch nicht um Effizienz (wie man Features, Stories oder Code so schnell wie möglich ausliefert). Vielmehr geht es um Effektivität - wie man schnell, zuverlässig und verantwortungsbewusst das richtige Produkt entwickelt. In diesem Buch geht es darum, durch Bewegung ein Gleichgewicht zu finden und sich auf effektive Weise zu bewegen.

Die Grundsätze und Praktiken in diesem Buch haben uns immer wieder geholfen, erfolgreiche ML-Lösungen zu liefern, und wir sind sicher, dass sie das auch für dich tun werden.

In diesem Buch verwendete Konventionen

In diesem Buch werden die folgenden typografischen Konventionen verwendet:

Kursiv

Weist auf neue Begriffe, URLs, E-Mail-Adressen, Dateinamen und Dateierweiterungen hin.

Constant width

Wird für Programmlistings sowie innerhalb von Absätzen verwendet, um auf Programmelemente wie Variablen- oder Funktionsnamen, Datenbanken, Datentypen, Umgebungsvariablen, Anweisungen und Schlüsselwörter hinzuweisen.

Constant width bold

Wird verwendet, um auf interessante Schnipsel in Codeblöcken aufmerksam zu machen.

Hinweis

Dieses Element steht für einen allgemeinen Hinweis.

Warnung

Dieses Element weist auf eine Warnung oder einen Warnhinweis hin.

Code-Beispiele verwenden

Zusätzliches Material (Code-Beispiele, Übungen usw.) steht zum Download bereit:

Wenn du eine technische Frage oder ein Problem mit den Codebeispielen hast, sende bitte eine E-Mail an

Dieses Buch soll dir helfen, deine Arbeit zu erledigen. Wenn in diesem Buch Beispielcode angeboten wird, darfst du ihn in deinen Programmen und deiner Dokumentation verwenden. Du musst uns nicht um Erlaubnis fragen, es sei denn, du reproduzierst einen großen Teil des Codes. Wenn du zum Beispiel ein Programm schreibst, das mehrere Teile des Codes aus diesem Buch verwendet, brauchst du keine Erlaubnis. Der Verkauf oder die Verbreitung von Beispielen aus O'Reilly-Büchern erfordert jedoch eine Genehmigung. Die Beantwortung einer Frage mit einem Zitat aus diesem Buch und einem Beispielcode erfordert keine Genehmigung. Wenn du einen großen Teil des Beispielcodes aus diesem Buch in die Dokumentation deines Produkts aufnimmst, ist eine Genehmigung erforderlich.

Wir freuen uns über eine Namensnennung, verlangen sie aber in der Regel nicht. Eine Quellenangabe umfasst normalerweise den Titel, den Autor, den Verlag und die ISBN. Zum Beispiel:"Effective Machine Learning Teams" von David Tan, Ada Leung, und David Colls (O'Reilly). Copyright 2024 David Tan Rui Guan, Ada Leung Wing Man, and David Colls, 978-1-098-14463-0."

Wenn du der Meinung bist, dass die Verwendung von Code-Beispielen nicht unter die Fair-Use-Regelung oder die oben genannte Erlaubnis fällt, kannst du uns gerne unter kontaktieren

O'Reilly Online Learning

Hinweis

Seit mehr als 40 Jahren bietet O'Reilly Media Schulungen, Wissen und Einblicke in Technologie und Wirtschaft, um Unternehmen zum Erfolg zu verhelfen.

Unser einzigartiges Netzwerk von Experten und Innovatoren teilt sein Wissen und seine Erfahrung durch Bücher, Artikel und unsere Online-Lernplattform. Die Online-Lernplattform von O'Reilly bietet dir On-Demand-Zugang zu Live-Trainingskursen, ausführlichen Lernpfaden, interaktiven Programmierumgebungen und einer umfangreichen Text- und Videosammlung von O'Reilly und über 200 anderen Verlagen. Weitere Informationen erhältst du unter https://oreilly.com.

Wie du uns kontaktierst

Bitte richte Kommentare und Fragen zu diesem Buch an den Verlag:

Wir haben eine Webseite für dieses Buch, auf der wir Errata, Beispiele und zusätzliche Informationen auflisten. Du kannst diese Seite unter https://oreil.ly/effective-ml-teams aufrufen .

Neuigkeiten und Informationen über unsere Bücher und Kurse findest du unter https://oreilly.com.

Finde uns auf LinkedIn: https://linkedin.com/company/oreilly-media

Schau uns auf YouTube: https://youtube.com/oreillymedia

Danksagungen

Als wir mit dem Schreiben dieses Buches begannen, wollten wir eine Sammlung von Praktiken vorstellen, die uns bei der Entwicklung von ML-Systemen geholfen haben. Aber am Ende haben wir einen umfassenden Leitfaden geschrieben, von dem wir überzeugt sind, dass er den gemeinsamen Nenner von ML-Teams anhebt und die Art und Weise, wie Teams ML-Produkte gestalten und liefern, verändern wird. Dieses Buch wäre nicht möglich gewesen ohne die vielen Menschen, die durch ihr Beispiel, ihre Worte und ihr Handelnunseren Ansatz beeinflusst und geprägt haben.

Wir möchten uns bei den wunderbaren Menschen bei O'Reilly bedanken, die geholfen haben, dieses Buch Wirklichkeit werden zu lassen: Nicole Butterfield, Melissa Potter, Gregory Hyman, Kristen Brown, Nicole Taché, Judith McConville, David Futato, Karen Montgomery, Kate Dullea und anderen Redakteuren, Designern und Mitarbeitern, die hinter den Kulissen daran gearbeitet haben, dieses Buch von der Konzeption bis zur Produktion immer weiter zu verbessern. Ein großes Dankeschön geht an unsere Fachrezensenten, die sich die Zeit und Mühe genommen haben, mehr als 300 Seiten Inhalt zu durchforsten und uns ein durchdachtes und offenes Feedback zu geben: Hannes Hapke, Harmeet Kaur Sokhi, Mat Kelcey und Vishwesh Ravi Shrimali.

Von David Tan

Danke, Nhung, dass du so geduldig warst und mich in den langen Nächten, die ich mit diesem Buch verbracht habe, unterstützt hast. Ohne deine Unterstützung hätte ich das Buch nicht fertigstellen können.

Ich sehe etwas, Jacob und Jonas - einen Baum! Bleib immer neugierig.

Eine besondere Erwähnung an Jeffrey Lau - dein Mentoring und die Entennudeln sind nicht umsonst gewesen.

Danke an die ehemaligen und aktuellen Kolleginnen und Kollegen bei Thoughtworks, die mir so viel über die Schönheit des Fragenstellens beigebracht und mir gezeigt haben, dass es in Ordnung ist, neue Wege zu beschreiten. Ich habe versucht, euch alle aufzuzählen, aber die Liste würde zu lang werden. Ihr wisst, wer ihr seid - ein großes Dankeschön dafür, dass ihr offen und freundlich seid und einfach gut in dem, was ihr tut. Ein besonderer Dank geht an Sue Visic, Dave Colls und Peter Barnes für ihre Ermutigung und Unterstützung beim Schreiben dieses Buches.

Neal Ford: Als ich dir ein paar logistische Fragen zum Schreiben eines Buches stellen wollte, hast du mehr getan, als nur deinen Schreibprozess mit mir zu teilen, mir zu zeigen, wie man Ideen testet, und mir die Ideen von Stephen King und Annie Dillard vorzustellen. Das hättest du nicht tun müssen, aber du hast es getan. Danke, dass du ein Multiplikator bist.

Es versteht sich fast von selbst, dass ich meinen Mitstreiterinnen und Mitstreitern Ada und Dave herzlich danke. Ihr habt die Qualität und den Umfang dieses Buches über das hinaus gesteigert, was ich mir vorstellen konnte, und ich freue mich darauf, dass dieser Leitfaden ML-Teams und Praktikern durch unsere gemeinsame Erfahrung helfen wird.

Von Ada Leung

Ich möchte mich bei meinem Partner, meinen Freunden und meiner Familie bedanken. Ihr wisst, wer ihr seid. Eure endlose Ermutigung und Bewunderung, dass ich tatsächlich ein Buch mitverfasst habe (Ja, ich weiß, nicht wahr?!), erinnert mich daran, wie cool es ist, unter unglaublich klugen und beeindruckenden Technologen zu sein.

Ich möchte mich auch bei meinen Thoughtworks-Kollegen bedanken, die ich auf meinem Weg kennengelernt habe, die mich aus der Ferne inspiriert haben und von denen ich das Glück hatte, als Mentor betreut zu werden - eure Leidenschaft und Großzügigkeit beim Teilen von Wissen hat die Messlatte für das Gute hoch gelegt. Es gibt kein passenderes Wort, um diese Gemeinschaft zu beschreiben als die Philosophie von Ubuntu: Ich bin, weil wir sind.

Schließlich möchte ich mich bei meinen Co-Autoren David und Dave für ihre unerschütterliche Unterstützung während dieser Reise bedanken. Der Austausch unserer Ideen und die Entdeckung des Umfangs und der Überschneidungen unseres gemeinsamen Wissens haben mich daran erinnert, wie sehr ich Teamarbeit und Kameradschaft schätze. Es war eine wahre Freude und ein Privileg.

Von David Colls

Ich möchte mich bei meiner Familie dafür bedanken, dass sie es ertragen hat, dass ich als Ehemann und Vater ein paar Monate lang an Wochenenden, Filmabenden und an der Basketball-Linie Inhalte geschrieben, rezensiert und recherchiert habe.

Ich möchte den vielen Thoughtworks-Kolleginnen und -Kollegen auf der ganzen Welt danken, die uns vorausgegangen sind, indem sie Bücher geschrieben und transformative Perspektiven auf die Technologie geschaffen haben, die unsere Entschlossenheit geweckt haben, dasselbe zu tun, und die uns gezeigt haben, wie das Gute aussieht. Näher bei mir zu Hause möchte ich mich bei allen australischen Thoughtworkern bedanken, mit denen ich über mehr als ein Jahrzehnt zusammengearbeitet habe und die meine Perspektiven erweitert und mich beruflich und menschlich bereichert haben.

Ich möchte vor allem all jenen Mitgliedern der Thoughtworks Australia Data & AI Practice danken, mit denen ich das Privileg hatte, zusammenzuarbeiten, während wir gemeinsam etwas Neues aufgebaut haben - in diesem Buch steckt ein bisschen von jedem von euch. Ich möchte mich auch bei unseren Kunden für das Vertrauen bedanken, das sie in uns setzen, um neue Ansätze für ihre größten Chancen und Herausforderungen zu entwickeln.

Schließlich möchte ich mich bei meinen Koautoren David und Ada für ihr Fachwissen und ihre Einsichten, ihr Feedback zu meinen Ideen und ihre strukturierte Herangehensweise bei der Zusammenstellung und Weitergabe unseres Wissens in diesem Buch bedanken. Es war mir eine Freude, mit euch zusammenzuarbeiten.

Get Effektive Teams für maschinelles Lernen now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.