Kapitel 1. MLOps: Was ist das und warum brauchen wir es?
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Die Wurzel ineffizienter Systeme ist ein zusammenhängendes Netz von Fehlentscheidungen, die sich im Laufe der Zeit verstärken. Es ist verlockend, nach einem Patentrezept für ein System zu suchen, das nicht gut funktioniert, aber diese Strategie zahlt sich selten, wenn überhaupt, aus. Nehmen wir den menschlichen Körper: Es gibt viele schnelle Lösungen, die dich gesund machen sollen, aber die Lösung für eine lange Lebensdauer erfordert einen systematischen Ansatz.1
Auch an Ratschlägen zum "schnell reich werden" mangelt es nicht. Auch hier widersprechen die Daten dem, was wir hören wollen. In Don't Trust Your Bauch (HarperCollins, 2022) zeigt Seth Stephens-Davidowitz, dass 84 % der 0,1 % der Topverdiener zumindest etwas Geld aus dem Besitz eines Unternehmens erhalten. Außerdem liegt das Durchschnittsalter von Unternehmensgründern bei 42 Jahren, und einige der erfolgreichsten Unternehmen sind Immobilien- oder Autohändler. Das sind keine Schnellschussgeschäfte, sondern Geschäfte, die viel Geschick, Fachwissen und Lebenserfahrung erfordern.
Städte sind ein weiteres Beispiel für komplexe Systeme, für die es keine Patentrezepte gibt. WalletHub hat eine Liste der am besten verwalteten Städte in Amerika erstellt. San Francisco liegt auf Platz 149 von 150, obwohl es viele theoretische Vorteile gegenüber anderen Städten hat, wie z.B. das schöne Wetter, den Sitz der besten Tech-Unternehmen der Welt und ein Budget von 14 Milliarden Dollar für 2022-2023 bei einer Bevölkerung von 842.000 Menschen. Das Budget entspricht dem des gesamten Landes Panama mit einer Bevölkerung von 4,4 Millionen Menschen. Wie das Beispiel San Francisco zeigt, reichen Einnahmen oder natürliche Schönheit allein nicht aus, um eine gut geführte Stadt zu haben; es braucht einen umfassenden Plan: Auf die Ausführung und die Strategie kommt es an. Es gibt keine Einzellösung, die über Erfolg oder Misserfolg einer Stadt entscheidet. Die WalletHub-Umfrage verweist auf umfangreiche Kriterien für eine gut geführte Stadt, darunter Infrastruktur, Wirtschaft, Sicherheit, Gesundheit, Bildung und finanzielle Stabilität.
Auch bei MLOps ist es verlockend, nach einer einzigen Lösung zu suchen, um Modelle in die Produktion zu bringen, z. B. indem man bessere Daten erhält oder ein bestimmtes Deep Learning Framework verwendet. Stattdessen ist es wie in diesen anderen Bereichen wichtig, eine evidenzbasierte, umfassende Strategie zu verfolgen.
Was ist MLOps?
Auf ist das Herzstück von MLOps die kontinuierliche Verbesserung aller Geschäftsaktivitäten. In der japanischen Automobilindustrie wird dieses Konzept als Kaizen bezeichnet, was wörtlich "Verbesserung" bedeutet. Bei der Entwicklung von maschinellen Lernsystemen für die Produktion manifestiert sich dies sowohl in der Verbesserung der Genauigkeit des Modells als auch in dem gesamten Ökosystem, das das Modell unterstützt.
Ein gutes Beispiel für eine der nicht offensichtlichen Komponenten des maschinellen Lernsystems sind die Geschäftsanforderungen. Wenn das Unternehmen ein genaues Modell benötigt, um vorherzusagen, wie viel Inventar im Lager gelagert werden soll, das Data-Science-Team aber ein Computer-Vision-System entwickelt, um das bereits im Lager befindliche Inventar im Auge zu behalten, ist das falsche Problem gelöst. Egal wie genau das Computer-Vision-System zur Bestandsverfolgung ist, das Unternehmen hat eine andere Anforderung gestellt, und das System kann die Ziele des Unternehmens nicht erfüllen.
Was also ist MLOps? MLOps setzt sich aus Machine Learning (ML) und Operations (Ops) zusammen und bezeichnet die Prozesse und Praktiken zur Entwicklung, Erstellung, Aktivierung und Unterstützung des effizienten Einsatzes von ML-Modellen in der Produktion, um die Geschäftsaktivitäten kontinuierlich zu verbessern. Ähnlich wie DevOps basiert MLOps auf Automatisierung, Agilität und Zusammenarbeit, um die Qualität zu verbessern. Wenn du an kontinuierliche Integration/kontinuierliche Bereitstellung (CI/CD) denkst, liegst du nicht falsch. MLOps unterstützt CI/CD. Laut Gartner "zielt MLOps darauf ab, die Bereitstellung und Verwaltung von ML-Modellen parallel zur Operationalisierung der ML-Pipeline zu standardisieren. Es unterstützt die Freigabe, Aktivierung, Überwachung, Leistungsverfolgung, Verwaltung, Wiederverwendung, Wartung und Steuerung von ML-Artefakten".
MLOps im Unternehmen
Es gibt erhebliche Unterschiede zwischen einem Unternehmen und einem Startup-Unternehmen. Der Entrepreneurship-Experte Scott Shane schrieb in The Illusions of Entrepreneurship (Yale University Press, 2010): "Nur ein Prozent der Menschen arbeitet in Unternehmen, die weniger als zwei Jahre alt sind, während 60 Prozent in Unternehmen arbeiten, die älter als zehn Jahre sind." Langlebigkeit ist eine Eigenschaft des Unternehmens.
Er sagt auch: "Man braucht 43 Startups, um nach zehn Jahren nur ein einziges Unternehmen zu haben, das andere Mitarbeiter als den Gründer beschäftigt." Im Grunde genommen baut das Unternehmen auf Größe und Langlebigkeit. Deshalb ist es wichtig, Technologien und Dienstleistungen zu berücksichtigen, die diese Eigenschaften unterstützen.
Hinweis
Startups haben technologische Vorteile für die Nutzer, aber sie haben auch unterschiedliche Risikoprofile für die Investoren und die Beschäftigten. Risikokapitalgeber haben ein Portfolio mit vielen Unternehmen und streuen so ihr Risiko. Laut FundersClub enthält ein typischer Fonds "135 Millionen" und ist "auf 30-85 Startups verteilt". Angestellte von Start-ups hingegen investieren ihr Gehalt und ihr Kapital in ein einziges Unternehmen.
Wenn du den Erwartungswert verwendest, um den tatsächlichen Wert des Eigenkapitals mit einer Wahrscheinlichkeit von 1/43 zu ermitteln, erhält ein Unternehmen, das einen jährlichen Bonus von 50.000 anbietet, im Jahr vier 200.000. Ein Startup erwirtschaftet im vierten Jahr 4.651,16 $. Für die meisten Menschen sind Startups im Durchschnitt eine riskante Entscheidung, wenn sie nur nach finanziellen Gesichtspunkten beurteilt werden. Sie können jedoch eine hervorragende Belohnung bieten, indem sie die Möglichkeit bieten, neue Technologien oder Fähigkeiten zu erlernen und die Chance auf eine hohe Auszahlung zu haben.
Auf der anderen Seite muss ein Startup, wenn sein Leben dynamisch ist, ganz andere Technologielösungen wählen als ein Unternehmen. Wenn die Wahrscheinlichkeit, dass es ein Startup in 10 Jahren noch gibt, bei 2,3 % liegt, warum sollte man sich dann um Vendor Lock-in oder Multicloud-Bereitstellung kümmern? Nur die mathematisch herausgeforderten Startups bauen, was sie noch nicht brauchen.
Wenn du ein profitables Unternehmen bist, das seinen Erfolg weiter ausbauen will, solltest du dich nicht nur nach Lösungen umsehen, die von Startups genutzt werden. Andere Kriterien wie die Einstellungsfähigkeit, der Unternehmenssupport, die Geschäftskontinuität und der Preis werden zu wichtigen Leistungsindikatoren (KPIs).
Den ROI von Unternehmenslösungen verstehen
Der Reiz einer "kostenlosen" Lösung besteht darin, dass du etwas umsonst bekommst. In der Praxis ist das aber selten der Fall. Abbildung 1-1 zeigt drei Szenarien. Im ersten Szenario kostet die Lösung nichts, bringt aber auch nichts, so dass der ROI gleich null ist. Im zweiten Szenario geht es um einen hohen Wert, aber die Kosten übersteigen den Wert, was zu einem negativen ROI führt. Im dritten Szenario liefert ein Wert von einer Million bei Kosten von einer halben Million eine halbe Million an Wert.
Die beste Wahl ist nicht kostenlos, sondern die Lösung, die den höchsten ROI liefert, da dieser ROI die Geschwindigkeit des profitablen Unternehmens erhöht. Erweitern wir das Konzept des ROI noch, indem wir uns mit maßgeschneiderten Lösungen beschäftigen, die in gewisser Weise auch "kostenlos" sind, da ein Mitarbeiter die Lösung entwickelt hat.
In Abbildung 1-2 überzeugt ein wirklich brillanter Ingenieur die Geschäftsführung, ihm zu erlauben, ein maßgeschneidertes System zu bauen, das ein bestimmtes Problem für das Fortune-100-Unternehmen löst. Der Ingenieur liefert nicht nur schnell, sondern das System übertrifft auch die Erwartungen. Es wäre verlockend, dies für eine Erfolgsgeschichte zu halten, aber in Wirklichkeit ist es eine Geschichte des Scheiterns. Ein Jahr später bekommt der brillante Ingenieur ein Jobangebot von einem Billionen-Dollar-Unternehmen und geht. Etwa drei Monate später geht das System kaputt, und niemand ist schlau genug, es zu reparieren. Das Unternehmen ersetzt widerwillig das gesamte System und schult die Mitarbeiter/innen auf das neue proprietäre System um.
Die letztendlichen Kosten für die Organisation sind der fehlende Schwung, den die Nutzung eines besseren Systems für ein Jahr mit sich bringt, sowie die Schulungszeit, die für die Umstellung vom alten auf das neue System erforderlich ist. So kann eine "kostenlose" Lösung mit positivem ROI langfristig einen negativen ROI für eine Organisation haben. Dieses Szenario ist nicht nur hypothetisch; du hast es vielleicht schon selbst erlebt.2
In Fooled by Randomness: The Hidden Role of Chance in Life and the Markets (Random House, 2008) argumentiert Nassim Taleb: "Es spielt keine Rolle, wie oft etwas gelingt, wenn das Scheitern zu teuer ist." Diese Aussage trifft direkt auf ein erfolgreiches Unternehmen zu, das MLOps umsetzen will. Das Eingehen der richtigen Art von strategischem Risiko ist von entscheidender Bedeutung. Im folgenden Abschnitt gehen wir näher auf das Konzept des Risikos ein.
Risiko und Ungewissheit im Unternehmen verstehen
Risiko ist nicht gleich Risiko, und Unsicherheit ist nicht gleich Unsicherheit. Anders als ein Startup hat ein Unternehmen die Überlebensphase erreicht. Es gibt einige Risiken, die Unternehmen nicht eingehen müssen. In seinem Buch über Unternehmen, Good to Great (Harper Business, 2011), fragt Jim Collins: "Wie denken gute bis großartige Organisationen anders über Technologie?" Er fand heraus, dass in jedem Fall ein "gutes bis großartiges" Unternehmen technologische Raffinesse gefunden hat und zu einem Vorreiter bei der Anwendung von Technologie wurde. Außerdem stellt Collins fest, dass Technologie die Dynamik beschleunigt und nicht erst erzeugt.
Hinweis
Mark Spitznagel plädiert in Safe Haven (Wiley, 2021) dafür, bei Finanzinvestitionen das geometrische Mittel zu berücksichtigen. Er sagt: "Der Gewinn ist endlich. Das Risiko ist unendlich." Der prozentuale Anteil deines Vermögens, den du verlieren kannst, ist wichtiger als der absolute Wert des Vermögens, den du beim Investieren verlieren könntest. Diese Tatsache eignet sich gut für das Unternehmen. Warum ein Risiko mit unbegrenztem Verlust eingehen?
Collins' Kernaussage zur Technologie gilt direkt für MLOps im Unternehmen. Der Zweck des maschinellen Lernens ist es, den bereits vorhandenen Geschäftswert zu beschleunigen. Der Grund für den Einsatz von maschinellem Lernen ist nicht, das Unternehmen zu einem Forscher für maschinelles Lernen zu machen, der mit Unternehmen konkurriert, die sich auf Forschung spezialisiert haben, sondern die strategischen Vorteile des Unternehmens durch Technologie zu beschleunigen.
Das kalkulierte Risiko der Einführung von maschinellem Lernen als Geschäftsbeschleuniger ist akzeptabel, wenn ein Unternehmen die Nachteile des technologischen Veränderungsmanagements in Grenzen halten kann. Das Risiko, dass ein Unternehmen maßgeschneiderte Lösungen und Plattformen für maschinelles Lernen entwickelt, ist praktisch unbegrenzt, wenn seine Kernkompetenz in einer anderen Branche liegt, z. B. in der Produktion, im Gastgewerbe oder bei Finanzdienstleistungen.
Es gibt viele Möglichkeiten, den technologischen Fortschritt im Unternehmen zu beschleunigen, darunter die Verwendung von vortrainierten Modellen wie Hugging Face oder TensorFlow Hub, Computer-Vision-APIs wie AWS Rekognition oder Open-Source-AutoML-Lösungen wie Ludwig oder MLOps-Orchestrierungsframeworks wie MLRun. Unternehmen, die MLOps mit dem richtigen Abstraktionsniveau einsetzen, verschaffen sich einen "guten bis großartigen" Vorteil gegenüber Organisationen, die "15 Datenwissenschaftler/innen" anheuern, die "Forschung" betreiben. Im letzteren Fall ist es oft so, dass nach jahrelanger Forschung im besten Fall nichts getan wird, im schlimmsten Fall aber eine lausige Lösung zu einem schlechteren Ergebnis führt als nichts zu tun.
Der Wirtschaftswissenschaftler Frank Knight hat den Unterschied zwischen Risiko und Ungewissheit klar formuliert: Die Belohnung für das Eingehen eines bekannten Risikos unterscheidet sich deutlich von einem Risiko, das unermesslich und nicht kalkulierbar ist. Diese Form des Risikos, die so genannte Knightsche Unsicherheit, wurde nach Knight benannt. Ein Unternehmen, das sich mit maschinellem Lernen beschäftigt, sollte sich genau überlegen, welches Risiko es eingeht: ein normales Risiko, das bekannt ist, oder einen Weg mit Knight'scher Ungewissheit zu beschreiten? In fast allen Fällen ist es besser, im Bereich des maschinellen Lernens und der künstlichen Intelligenz überschaubare Risiken einzugehen, denn die Technologie ist nicht der Schöpfer des Wachstums, sondern der Beschleuniger.
Da wir wissen, dass Beschleunigung die entscheidende Erkenntnis für großartige Unternehmen ist, die Technologie nutzen, wollen wir uns einige der Unterschiede in der Technologiebeschleunigung zwischen MLOps und DevOps ansehen.
MLOps vs. DevOps
Ohne DevOps kannst du kein MLOps machen. DevOps ist ein grundlegender Baustein für MLOps, und es gibt keinen Ersatz. DevOps ist eine Methode, um Software auf agile Weise zu veröffentlichen und dabei die Qualität der Geschäftsergebnisse und der Software selbst ständig zu verbessern. Ein hochqualifizierter DevOps-Praktiker hat viel mit einem Gourmetkoch gemeinsam. Er kennt die Zutaten genau und verfügt über jahrelange praktische Erfahrung in der Zubereitung schöner und köstlicher Gerichte. Die Wiederholung ermöglicht es einem Restaurant, geöffnet zu bleiben und Gewinn zu machen.
Ähnlich verhält es sich mit DevOps: Ein Experte in diesem Bereich verfügt über detaillierte Kenntnisse darüber, wie man Software erstellt und sie in einer qualitativ hochwertigen und wiederholbaren Weise einsetzt. Eine der größten Herausforderungen für Experten in den Datenwissenschaften beim Übergang zu MLOps ist die mangelnde Erfahrung mit DevOps. Es gibt keinen Ersatz für Erfahrung. Viele Data-Science-Praktiker und Forscher im Bereich des maschinellen Lernens sollten Erfahrungen mit der Entwicklung und dem Einsatz von Software mit der DevOps-Methode sammeln, um das nötige Grundwissen und die Erfahrung zu erlangen, die sie als Experten für MLOps benötigen.
Hinweis
Mehr über DevOps erfährst du in Python für DevOps (O'Reilly) von Noah Gift, Kennedy Behrman, Alfredo Deza und Grig Gheorghiu.
Es gibt jedoch offensichtliche Unterschiede zwischen traditionellen DevOps und MLOps. Ein deutlicher Unterschied ist das Konzept der Datendrift: Wenn ein Modell auf Daten trainiert wird, kann es allmählich an Nützlichkeit verlieren, wenn sich die zugrunde liegenden Daten ändern. Ein großartiges theoretisches Beispiel für dieses Konzept stammt von Nassim Taleb in Fooled by Randomness (Random House, 2021), wo er beschreibt, wie ein "freches Kind", wie in Abbildung 1-3 dargestellt, das Verständnis für die zugrunde liegende Verteilung von roten und schwarzen Kugeln in einem Behälter stören kann.
Je mehr Kugeln in einem statischen Zustand aus einem Behälter gezogen werden, desto sicherer kann eine Person die zugrunde liegende Verteilung von roten und schwarzen Kugeln einschätzen. Wenn sich die Kugeln in einem dynamischen Zustand ständig verändern, ist ein Modell, das auf einer älteren Datenversion trainiert wurde, nicht mehr genau. Dieses Beispiel zeigt eines der vielen einzigartigen Elemente von MLOps, die es bei DevOps nicht gibt.
Das Fazit ist, dass DevOps eine notwendige Grundlage für MLOps ist, aber die zusätzlichen Anforderungen von MLOps, wie z.B. die Datendrift, kommen im traditionellen DevOps nicht vor.
Hinweis
Microsoft stellt fest: "Die Datenabweichung ist einer der Hauptgründe, warum die Modellgenauigkeit mit der Zeit abnimmt."
Was ist kein MLOps?
Eine Möglichkeit, mehr über MLOps zu erfahren, ist zu definieren, was es nicht ist. Hier sind einige gängige MLOps-Anti-Muster:
- Ein Team von Datenwissenschaftlern einstellen und auf das Beste hoffen
-
Das vielleicht häufigste Anti-MLOps-Muster besteht darin, ein Team von Datenwissenschaftlern einzustellen und zu erwarten, dass eine hervorragende Lösung herauskommt. Ohne organisatorische Unterstützung, die MLOps versteht, und ohne eine entsprechende technologische Infrastruktur wird es kein ideales Ergebnis geben.
- Nur maßgeschneiderte Lösungen für maschinelles Lernen bauen
-
Ein grundsätzliches Problem bei der Entwicklung ausschließlich maßgeschneiderter Lösungen ist, dass sie für die Geschäftsziele eines Unternehmens möglicherweise nicht notwendig sind. Das Training eines maßgeschneiderten maschinellen Lernmodells auf eigenen Daten für ein selbstfahrendes Unternehmen ist für einen Wettbewerbsvorteil unerlässlich. Ein ähnliches Modell für ein Fortune-500-Lieferunternehmen zu trainieren, könnte ein kostspieliges Experiment sein, das keinen wirklichen Mehrwert für das Unternehmen bringt.
- Die Bedeutung von DevOps vernachlässigen
-
Teams, die in Silos arbeiten, halten sich nicht an die bewährten Methoden von DevOps. Es ist zum Beispiel unpraktisch, ein Data-Science-Team in Texas zu haben, das Modelle in R erstellt und sie dann an das DevOps-Team im Finanzdistrikt von San Francisco weitergibt, damit es sie in den Software-Stack in Python einfügt.
Letztlich erfordert MLOps eine geschäfts- und produktionsorientierte Denkweise. Das Ziel des maschinellen Lernens ist es, den Geschäftswert zu steigern. Das bedeutet, dass die Teams, die Lösungen entwickeln, bei der Lösung von Machine-Learning-Problemen agil vorgehen müssen.
Mainstream-Definitionen von MLOps
Eine Herausforderung im Technologiebereich ist die Trennung von Marketingstrategie und Technologiestrategie. Im Fall von MLOps handelt es sich nicht um eine Marketingstrategie, sondern um eine spezifische Lösung für ein schwerwiegendes Problem im Unternehmen. Das Problem ist, dass die Modelle es nicht in die Produktion schaffen; und wenn doch, dann sind sie brüchig und brechen zusammen, wenn sie mit der Komplexität der realen Welt konfrontiert werden. Verschiedene Umfragen zeigen, dass 50-70% der Unternehmen bei der Umsetzung von KI-Piloten oder -Modellen in der Produktion fehlgeschlagen sind.
Nachdem wir die Krankheit erkannt haben, müssen wir das Heilmittel finden. Das Heilmittel muss (unter anderem) die folgenden Punkte berücksichtigen:
-
Modellbereitstellung und Entwicklungszeit
-
Zusammenarbeit zwischen verschiedenen Teams
-
Operative Exzellenz von ML-Systemen
-
Datenverwaltung
-
Steigerung des ROI des Unternehmens, das das Modell einsetzt
Eine minimalistische Art, MLOps zu definieren, ist, dass es die ML-Entwicklung so unterstützt wie DevOps die Softwareentwicklung.
Was ist ML Engineering?
Eine Möglichkeit, ML-Engineering zu definieren, ist ein Blick auf gängige Zertifizierungen. Der Professional Machine Learning Engineer von Google erklärt die folgenden Kriterien für einen professionellen ML-Ingenieur:
- Frame ML Probleme
-
Welches Modell zu wählen ist, hängt von den geschäftlichen Zwängen und dem Kontext ab. So kann ein Unternehmen zum Beispiel beschließen, beschädigte Versandkartons von erfolgreich zugestellten Paketen zu unterscheiden. In diesem Zusammenhang wäre ein Klassifizierungsmodell besser geeignet als ein Regressionsmodell.
- Architekt für ML-Lösungen
-
Ein ML-Ingenieur entwickelt zusammen mit anderen Teammitgliedern eine Lösung, um das richtig formulierte Problem mit maschinellem Lernen zu lösen.
- Systeme zur Datenaufbereitung und -verarbeitung entwerfen
-
Zwei entscheidende Schritte bei der Datenaufbereitung und -verarbeitung sind die Erstellung des Datensatzes und die anschließende Transformation der Daten.
- ML-Modelle entwickeln
-
Bei der detaillierten Modellierung erstellt ein Team oder eine Einzelperson ein Modell, das dem ursprünglichen Modellrahmen entspricht.
- Automatisieren und orchestrieren Sie ML-Pipelines
-
Eine Pipeline dient dazu, einen Prozess für reproduzierbares und wartbares ML zu schaffen.
- Überwachen, optimieren und warten
-
Beim Aufbau komplexer Systeme ist es besser, proaktiv zu sein als reaktiv. Die Gebäudeüberwachung ermöglicht einen proaktiven Ansatz bei der Wartung von ML-Systemen.
ML-Engineering zielt darauf ab, hochwertige ML-Modelle zu entwickeln, die spezifische Geschäftsprobleme lösen und gleichzeitig einen ROI schaffen.
Hinweis
Mehrere O'Reilly-Bücher behandeln die Technik des maschinellen Lernens, darunter Data Science on the Google Cloud Platform, Machine Learning Design Patterns und Practical MLOps.
MLOps und Unternehmensanreize
Ein klassisches Problem in der Wirtschaftsschule sind Anreize, oft beschrieben als "Wer hat den Käse bewegt?" Dieses Szenario bezieht sich auf eine Ratte in einem Labyrinth, die sich bewegt, je nachdem, wo sich der Käse befindet. In ähnlicher Weise gibt es zwei häufige Anreize, die es wert sind, bei MLOps diskutiert zu werden: negative externe Effekte und die Einstellung von Datenwissenschaftlern ohne Rücksicht auf den ROI:
- Negative externe Effekte
-
Negative externe Effekte, wie z. B. ein Unternehmen, das einen Gewinn erzielt, indem es Giftmüll in einen Fluss leitet, anstatt ihn auf die teurere Weise zu entsorgen, sind klassische Beispiele für die grundlegenden Probleme des Kapitalismus. Beim maschinellen Lernen könnten die negativen externen Effekte voreingenommene Algorithmen sein, die eine unschuldige Person ins Gefängnis schicken oder einer Person aufgrund von Ethnie, Religion, nationaler Herkunft und anderen Kategorien einen Kredit verweigern. Selbst eine unbeabsichtigte Voreingenommenheit in einem Modell ist immer noch illegal (z. B. die Verweigerung eines Kredits aufgrund des Alters). Unternehmen, die es versäumen, in die Zukunft zu blicken, könnten sich einem existenziellen Risiko aussetzen, wenn ein maschinelles Lernmodell versehentlich eine Voreingenommenheit gegenüber älteren Bewerbern einbaut.
- Einstellung von Datenwissenschaftlern ohne Rücksicht auf den ROI
-
In letzter Zeit ist es in Mode gekommen, Datenwissenschaftler einzustellen, ohne sich um das Problem zu kümmern, das sie lösen. Wie wir bereits besprochen haben, funktioniert diese Strategie letztlich nicht, weil die Modelle in den meisten Unternehmen, die KI und ML betreiben, nicht in Produktion sind.
MLOps in der Cloud
Die MLOps-Methode nutzt mehrere entscheidende Vorteile des Cloud Computing. Erstens ist die Cloud eine elastische Ressource, die sowohl die effiziente Nutzung von Rechenleistung und Speicherung als auch die Fähigkeit zur Skalierung für nahezu jede Nachfrage ermöglicht. Diese Fähigkeit bedeutet, dass Cloud Computing bei Bedarf Zugang zu praktisch unbegrenzten Ressourcen hat.
Zweitens hat die Cloud einen Netzwerkeffekt, da Cloud-Technologien von der Integration anderer Cloud-Technologien profitieren. Ein gutes Beispiel ist AWS Lambda, eine serverlose Technologie. AWS Lambda ist ein wertvoller Dienst, mit dem du Anwendungen erstellen kannst, und zwar nicht allein wegen seiner Funktionen, sondern wegen der tiefen Integration mit anderen AWS-Diensten wie AWS Step Functions, Amazon SageMaker oder AWS S3. Bei jeder aktiven Cloud-Plattform kannst du davon ausgehen, dass das integrierte Netzwerk von Diensten ihre Fähigkeiten weiter stärkt, wenn die Plattform weitere Funktionen entwickelt.
Drittens: Alle Cloud-Anbieter haben MLOps-Plattformen. AWS hat SageMaker, Azure hat Azure Machine Learning, und Google hat Vertex AI. Selbst kleinere Nischen-Clouds wie Alibaba Cloud haben ihre Machine Learning Platform für KI. Wenn ein Unternehmen eine Cloud-Plattform nutzt, wird es wahrscheinlich einige der Angebote der nativen ML-Plattform verwenden und sie möglicherweise mit benutzerdefinierten Lösungen und Lösungen von Drittanbietern ergänzen.
Viertens: Alle Cloud-Anbieter bieten Cloud-Entwicklungsumgebungen an. Ein signifikanter Trend ist die Verwendung einer Kombination aus leichtgewichtigen CloudShell-Umgebungen wie AWS CloudShell, schwereren vollständigen interaktiven Entwicklungsumgebungen (IDE) wie AWS Cloud9 und Notebook-Umgebungen, sowohl kostenlose wie SageMaker Studio Lab oder Google Colab als auch solche mit umfassender IDE-Integration wie SageMaker Studio.
Je nachdem, was ein Unternehmen tut, hat es vielleicht keine andere Wahl, als Cloud Computing zu nutzen. Einige Cloud Computing-Komponenten sind für Unternehmen, die sich auf die Entwicklung maßgeschneiderter Deep Learning-Lösungen spezialisiert haben, zwingend erforderlich, da Deep Learning umfangreiche Speicher- und Rechenkapazitäten erfordert.
Neben den Public-Cloud-Anbietern gibt es noch weitere Anbieter von MLOps-Lösungen in der Cloud (siehe weiter unten in diesem Abschnitt). Diese Anbieter können in der öffentlichen Cloud oder in privaten Clouds arbeiten. Der Vorteil eines kleineren Anbieters ist der Grad der Individualisierung, den ein solches Unternehmen seinen Kunden bietet. Außerdem verfügt ein MLOps-Anbieter über fundiertere Fachkenntnisse im Bereich MLOps, da dies sein einziger Schwerpunkt ist. Integrierte Anbieter bieten oft mehr relevante Funktionen und viel mehr Integrationen. Wenn du dich für einen Anbieter entscheidest, der nicht an einen bestimmten Cloud-Provider gebunden ist, bist du als Kunde auch nicht an ihn gebunden. Stattdessen kannst du den Anbieter in mehreren Clouds oder auf deiner zusätzlichen Infrastruktur nutzen (siehe weiter unten in diesem Abschnitt).
Hinweis
Eine hilfreiche Quelle für die Analyse von Anbietern für maschinelles Lernen ist die AI Infrastructure Alliance (AIIA). Diese Organisation verschafft Datenwissenschaftlern und Ingenieuren Klarheit und Informationen über KI/ML-Tools zum Aufbau robuster, skalierbarer und durchgängiger Unternehmensplattformen. Eine Ressource ist eine umfassende MLOps-Landschaft, die alle Akteure in der Branche aufzeigt. Dieses Dokument enthält eine aktualisierte MLOps-Landschaft, die Open-Source- und Unternehmenslösungen für MLOps aufzeigt. Die neue Landschaft umfasst mehrere Kategorien und Hunderte von Unternehmen, wobei die Fähigkeiten der einzelnen Anbieterlösungen detailliert beschrieben werden.
In Abbildung 1-4 siehst du ein typisches Muster für alle Clouds, in denen es eine Reihe von Cloud-Entwicklungsumgebungen, flexiblen Speichersystemen, elastischen Rechensystemen, serverlosen und containerisierten Managed Services und die Integration von Drittanbietern gibt.
Hier findest du weitere Details zu diesen Kategorien:
- Cloud-Entwicklungsumgebungen
-
Im Allgemeinen stehen entwicklerorientierte Tools wie Cloud Shells und IDEs auf der einen Seite und Tools für maschinelles Lernen auf der anderen Seite. Tools für Speicherabfragen wie Google BigQuery, Amazon Athena oder Azure Databricks Integration liegen in der Mitte.
- MLOps-Plattformen, die in der Cloud arbeiten
-
MLOps-Plattformen werden speziell für den Betrieb von MLOps für Unternehmen in der Cloud oder in jeder beliebigen Umgebung entwickelt. Lösungen wie Iguazio, Valohai, DataRobot, Azure Databricks und Outerbounds und viele andere bieten eine große Vielfalt an MLOps-Lösungen für Unternehmen.
- Elastische Speichersysteme und elastische Rechensysteme
-
Deep-Learning-Systeme leben von großen Datenmengen und flexiblen Rechenkapazitäten von GPUs, CPUs und anwendungsspezifischen integrierten Schaltkreisen (ASICs) wie Tensor Processing Units (TPU). Daher nutzen MLOps-Plattformen, sowohl eigene als auch die von Drittanbietern, in hohem Maße diese elastischen Fähigkeiten, um verwaltete Lösungen anzubieten.
- Serverlose und containerisierte Managed Services
-
Cloud-Plattformen entwickeln sich hin zu serverlosen Lösungen wie AWS Lambda oder Google Cloud Functions undLösungen mit vollständig verwalteten Containerlösungen wie Google Cloud Run oder AWS Fargate. Diese verwalteten Dienste verfügen wiederum über eine tiefe Plattformintegration, die das Wertversprechen der Cloud-Plattform durch einen Netzwerkeffekt steigert.
- Integration von Drittanbietern
-
Eine Cloud-Plattform kann nicht genau die richtige Mischung von allem und in der richtigen Qualität haben. Ein Besuch in einem großen Warenhaus bietet eine große Auswahl zu einem günstigen Preis. Aber sie haben vielleicht nicht die authentischen Gourmet-Lebensmittel, die du magst, oder die genauen Gerätefunktionen, die du brauchst. Genau wie das große Warenhaus kann auch ein Cloud-Provider nicht alles in die Tiefe gehen. Daher werden diese speziellen oder fortgeschrittenen Anwendungsfälle von Drittanbietern integriert.
Nachdem wir die allgemeinen Aspekte des Cloud Computing für MLOps behandelt haben, wollen wir nun die Cloud-Umgebungen im Detail besprechen.
Wichtige Cloud-Entwicklungsumgebungen
Eines der besten neuen Produkte von Microsoft ist GitHub Codespaces, eine cloudbasierte Entwicklungsumgebung mit vielen anpassbaren Funktionen und ein großartiger Ort, um MLOps zu praktizieren. Besonders hilfreich an dieser Umgebung ist die tiefe Integration mit GitHub und die Möglichkeit, sie mit einer speziellen Laufzeitumgebung anzupassen. Und schließlich ermöglicht die Synergie mit GitHub Actions eine großartige CI/CD-Geschichte.
Hinweis
In den folgenden Videos erfährst du mehr über GitHub Codespaces:
Google bietet drei verschiedene Arten von Cloud-basierten Entwicklungen an: Colab Notebooks, Google Cloud Shell und Google Cloud Shell Editor.
Abbildung 1-5 zeigt einen vollständigen Editor, der für Google Cloud Platform (GCP) verfügbar ist.
In Abbildung 1-6 werden die API-Dokumente in die Entwicklungsumgebung integriert.
In Abbildung 1-7 zeigt das Terminal eine Standardansicht der Erfahrung mit der Cloud Shell.
Hinweis
In den folgenden Videos erfährst du mehr über Colab-Notizbücher:
Schließlich verfügt die AWS-Plattform über Cloud-Shell-Umgebungen, wie in Abbildung 1-8 dargestellt.
Hinweis
Eine schnelle Möglichkeit, mehrere Clouds gleichzeitig kennenzulernen, ist die Einrichtung einer kontinuierlichen Multicloud-Integration. Wie du das machst, erfährst du im Video "GitHub Actions Hello World All Cloud and Codespaces".
All dies führt zu dem Konzept des Cloud-Entwicklerarbeitsplatzes, wie in Abbildung 1-9 dargestellt. Ein Laptop oder eine Workstation ist aufgrund der vorinstallierten Software teuer und unbestimmt und per Definition nicht das Ziel der Entwicklung. Ein Cloud-basierter Arbeitsbereich hat viele unglaubliche Vorteile, wie z. B. Leistung, Verfügbarkeit, Vorinstallation und tiefe Integration mit fortschrittlichen Tools.
Hinweis
Mehr über den Vorteil des Cloud-Entwicklerarbeitsplatzes erfährst du im Video"52 Weeks of AWS - The Complete Series" oder auf YouTube.
Die wichtigsten Akteure im Cloud Computing
Kennst du jemanden, der 200.000 Dollar oder mehr im Jahr verdienen möchte? Laut der Cloud Salary Survey 2022 von Mike Loukides (O'Reilly) liegt das Durchschnittsgehalt für zertifizierte Fachkräfte für AWS, Azure und GCP bei über 200.000.
Dies wird auch durch die Daten von Statista bestätigt, die in Abbildung 1-10 dargestellt sind. Im 2. Quartal 2022 gab es drei Hauptakteure auf dem weltweiten Markt. AWS hatte einen Marktanteil von etwa 33%, Azure von etwa 21% und Google Cloud von etwa 10%. Zusammen kontrollierten diese drei Anbieter zwei Drittel eines Marktes, der einen Umsatz von fast 200 Milliarden US-Dollar generiert. Der Serviceumsatz stieg im Vergleich zum Vorjahr um 37 %.
Eine sinnvolle Strategie für ein Unternehmen, das Cloud Computing nutzen möchte, ist die Nutzung der Plattform der größten Anbieter. Der Matthew-Effekt3 der besagt, dass die Reichen reicher und die Armen ärmer werden, trifft aus mehreren Gründen auf das Cloud Computing zu:
- Verfügbare Mitarbeiter und Verkäufer, die eingestellt werden können
-
Die Nutzung der bekanntesten Cloud-Plattformen erleichtert die Einstellung von Mitarbeitern und die Suche nach Anbietern, die mit der Plattform arbeiten.
- Schulungsmaterial verfügbar
-
Die Verfügbarkeit von Schulungsmaterial für die bekanntesten Plattformen erleichtert die Schulung der Beschäftigten.
- Verfügbare Dienstleistungen
-
Größere Plattformen können mehr Softwareentwickler/innen und Produktmanager/innen einstellen, so dass du damit rechnen kannst, dass sie auch weiterhin neue Funktionen anbieten und ihre Plattform pflegen.
- Kosten der Dienstleistung
-
Größenvorteile bedeuten, dass die bedeutendsten Anbieter am meisten von Skaleneffekten profitieren. Sie können Preisvorteile nutzen, indem sie in großen Mengen einkaufen und diese dann an die Kunden weitergeben.
Hinweis
Du kannst für die AWS Cloud-Zertifizierungen lernen, indem du dir den "AWS Solutions Architect Professional Course" und den "AWS Certified Cloud Practitioner Video Course" von Noah Gift ansiehst.
Nachdem du nun die wichtigsten Cloud-Anbieter kennst, wollen wir nun erörtern, wie die einzelnen Anbieter die Welt des Cloud Computing in Bezug auf MLOps sehen.
Die AWS-Sicht auf Cloud Computing im Zusammenhang mit MLOps
Der beste Ort, um einen Überblick über AWS Cloud Computing zu bekommen, ist das Whitepaper Overview of Amazon Web Services AWS. Darin werden insbesondere sechs Vorteile des Cloud Computing genannt:
- Tausche fixen Aufwand gegen variablen Aufwand
-
Die Vermeidung von großen Investitionsausgaben fördert die Flexibilität und Effizienz.
- Profitiere von massiven Skaleneffekten
-
Wenn die Preise für den Anbieter sinken, sinken sie auch für den Kunden, so dass die Preise niedriger sind, als wenn der Kunde das gleiche Produkt kaufen würde. Auch für die Managed Services auf der Plattform gibt es einen festen Zeitplan mit neuen Funktionen.
- Hör auf, die Kapazität zu schätzen
-
Es besteht keine Notwendigkeit, Ressourcen im Voraus bereitzustellen, da die Systeme so gebaut werden, dass sie bei Bedarf skaliert werden können.
- Geschwindigkeit und Beweglichkeit erhöhen
-
Wenn man sich auf den komparativen Vorteil eines Unternehmens konzentriert und keine für das Geschäft unwichtige IT aufbaut, kann ein Unternehmen schneller vorankommen.
- Kein Geld mehr für den Betrieb und die Wartung von Rechenzentren ausgeben
-
Durch die Auslagerung dieser Komponente der IT entstehen Kosteneinsparungen.
- Global werden in Minuten
-
Global zu agieren ist eine große Herausforderung, die sich mit AWS aufgrund des umfassenden Angebots erledigt.
Hinweis
Du kannst mehr über AWS in Developing on AWS with C# (O'Reilly) von Noah Gift und James Charlesworth erfahren.
Diese Funktionen fließen schließlich in das zentrale MLOps-Angebot von Amazon SageMaker ein ( siehe Abbildung 1-11 ), da der Lebenszyklus des Projekts von der Vorbereitung über die Erstellung und Schulung bis hin zur Bereitstellung und Verwaltung der Lösung reicht. Im Zentrum des Workflows steht die enge Integration mit den Entwickler-Tools von Studio und RStudio.
Hinweis
In dem Video "Amazon SageMaker Studio Labs: First Thoughts" kannst du einen kompletten Durchlauf von SageMaker Studio Lab sehen.
Nachdem wir die AWS-Sicht auf die MLOps abgeschlossen haben, schauen wir uns nun Azure an.
Azure-Ansicht von Cloud Computing in Bezug auf MLOps
Microsoft Azure sieht die Welt der MLOps als eine Möglichkeit, "effizient von einem Proof of Concept oder einem Pilotprojekt zu einem Machine Learning Workload in der Produktion zu skalieren". Wie in Abbildung 1-12 dargestellt, umfasst der Lebenszyklus des Modells Training, Paketierung, Validierung, Bereitstellung, Überwachung und erneutes Training.
Als Nächstes wollen wir uns ansehen, wie Google MLOps sieht.
GCPs Sicht auf Cloud Computing in Bezug auf MLOps
Ein idealer Ort, um zu sehen, wie Google die Welt sieht, ist der Crashkurs Production ML Systems. Das Unternehmen weist unter anderem darauf hin, wie winzig der Modellierungsteil des Problems ist, wie in Abbildung 1-13 dargestellt. Stattdessen nimmt die Kombination anderer Aufgaben, wie die Datenerfassung, die Bereitstellung der Infrastruktur und die Überwachung, einen viel größeren Teil des Problems ein.
Letztendlich führt dies dazu, wie Googles Vertex AI-Plattform den MLOps-Workflow handhabt, wie in Abbildung 1-14 dargestellt. Der ML-Entwicklungsprozess findet statt, einschließlich der Modellbildung für das Geschäftsproblem. Die Datenverarbeitungsphase führt zu einem operationalisierten Trainingsprozess, der je nach Bedarf skaliert werden kann. Dann erfolgt die Bereitstellung des Modells zusammen mit der Orchestrierung des Workflows und der Organisation der Artefakte. Die Überwachung des Modells ist in den Bereitstellungsprozess integriert.
Auch wenn Public Cloud-Provider ihre eigenen Lösungen anbieten, benötigen Unternehmen manchmal eine Lösung, die besser auf ihre spezifischen Bedürfnisse zugeschnitten ist. Schauen wir uns zwei weitere Bereitstellungsoptionen an: die Bereitstellung vor Ort und die Hybrid-Cloud-Bereitstellung.
MLOps On-Premises
In einigen Anwendungsfällen können Unternehmen die öffentliche Cloud nicht nutzen. Geschäftliche Einschränkungen wie die Notwendigkeit, sensible Daten zu schützen oder strenge Vorschriften einzuhalten (z. B. Datenschutzbestimmungen für die Datenlokalisierung), erfordern eine MLOps-Lösung, die vor Ort eingesetzt werden kann. Viele MLOps-Lösungen bieten die Möglichkeit, sie entweder in der Cloud oder vor Ort einzusetzen. Der einzige Nachteil dieses Ansatzes besteht darin, dass das Unternehmen die Server und Geräte bereitstellen muss, die die hohe Rechenleistung unterstützen, die für die Ausführung von ML-Algorithmen in großem Umfang erforderlich ist. Außerdem müssen sie die Infrastruktur aktualisieren und warten.
Andererseits ist bei einer Vor-Ort-Installation mit Sicherheit eine gewisse Anpassung erforderlich. Bei einer solchen Installation haben die Unternehmen mehr Kontrolle über das Produkt und können spezifische Wünsche äußern, um es an ihre Bedürfnisse anzupassen. Wenn es sich bei der eingesetzten Lösung um eine Startup-Lösung handelt, werden sie aufmerksam sein und hart daran arbeiten, die Zufriedenheit und Akzeptanz sicherzustellen. Wenn es sich um ein Open-Source-Produkt handelt, können Unternehmen nicht nur die Entwicklungskraft der Community nutzen, sondern auch mit ihren eigenen Entwicklern am Produkt arbeiten, um sicherzustellen, dass es ihren Bedürfnissen entspricht.
MLOps in hybriden Umgebungen
Ähnlich wie bei der Bereitstellung vor Ort bevorzugen manche Unternehmen eine hybride Cloud-Bereitstellung. Dies beinhaltet die Bereitstellung in der/den öffentlichen Cloud(s), vor Ort und vielleicht sogar in einer privaten Cloud oder auf Kantengeräten. Das macht die Sache natürlich viel komplexer, denn die MLOps-Lösung muss eine vollständige Trennung des Datenpfads vom Kontrollpfad ermöglichen und von einer hochverfügbaren, skalierbaren Einheit bereitgestellt werden, die ML-Pipelines über verschiedene Arten von Infrastrukturen hinweg orchestriert, verfolgt und verwaltet. Nicht zu vergessen ist, dass dies in hoher Geschwindigkeit und mit optimaler Leistung geschehen muss. Und schließlich bietet die Lösung idealerweise eine einzige Entwicklungs- und Bereitstellungsplattform für Ingenieure in allen Infrastrukturen.
Es ist vielleicht nicht einfach, einen Anbieter oder eine Open-Source-Lösung zu finden, die all diese Anforderungen erfüllt, aber wie bereits erwähnt, setzt du am besten auf Startups oder ausgereifte OSS-Lösungen, die an die spezifischen Anforderungen deiner Infrastruktur angepasst werden können.
Unternehmens-MLOps-Strategie
Nachdem wir uns einen Überblick über die wichtigsten Aspekte von MLOps verschafft haben, ist es nun an der Zeit, sich der Strategie zuzuwenden, wie in Abbildung 1-15 dargestellt. Bei der Umsetzung einer MLOps-Strategie sind vier Schlüsselkategorien zu berücksichtigen: Cloud, Ausbildung und Talente, Anbieter und der Fokus der Geschäftsführung auf den ROI.
Lass uns jede dieser vier Kategorien besprechen:
- Wolke
-
Es gibt keine perfekte Antwort auf die Frage, welche Cloud-Plattform man nutzen sollte. Jede zentrale Plattform bietet die Vorteile von Skaleneffekten. Bei einer MLOps-Strategie ist es wichtig zu wissen, wie eine Cloud-Plattform zu den Zielen der jeweiligen Organisation passt und wie sie mit anderen strategischen Komponenten wie der Einstellung von Mitarbeitern oder der Integration von Drittanbietern harmoniert.
- Ausbildung und Talent
-
Oft schauen Unternehmen nur auf die Leistungsfähigkeit einer neuen Technologie und lassen die Schulungs- und Talentkomponente bei der Nutzung der Technologie außer Acht. In fast allen Fällen sollte eine Organisation eine weniger leistungsfähige Technologie einsetzen, wenn die Einstellung und Ausbildung mit einer weniger leistungsfähigen Lösung besser ist. Diese Tatsache bedeutet, dass die Verbreitung der Technologie entscheidend für die Einführung neuer Technologien ist. Letztlich ist die neueste Technologie tot, wenn du dein Personal nicht einstellen oder schulen kannst.
- Anbieter
-
Ein oft übersehenes Problem bei der Nutzung von Cloud Computing ist, dass es in der Regel von spezialisierten Anbietern ergänzt werden muss, damit ein Unternehmen seine Ziele mit der Technologie erreichen kann. Diese strategischen Entscheidungen können zu einem besseren ROI sowohl für die Cloud als auch für die Unternehmensstrategien führen. Beispiele hierfür sind die Nutzung von Technologien von Anbietern, die sich auf Hadoop, Kubernetes oder Pre-Train-Modelle spezialisiert haben. Die Wahl des Anbieters hängt von der jeweiligen Organisation und ihren Geschäftszielen ab.
Hinweis
In den "Enterprise MLOps Interviews" erwähnt Ville Tuulos , CEO von Outerbounds und Autor von Metaflow, dass alle Unternehmen zwar die Basisschicht der Cloud nutzen, z. B. Speicherung und Datenbanken, aber oft mit Anbietern auf höheren Schichten zusammenarbeiten müssen.
Fazit
Dieses Kapitel legt den Grundstein für das Verständnis der Krise in Unternehmen, die maschinelles Lernen und KI in die Produktion bringen. Mit gesundem Menschenverstand betrachtet, ist die Idee, "einfach mehr Data Scientists einzustellen", um den ROI zu erhöhen, genauso sinnvoll wie "einfach mehr Softwareentwickler einzustellen", um ein herkömmliches Softwareprojekt schneller voranzubringen. Wenn es in einem herkömmlichen Softwareunternehmen kein Produkt, kein Ziel und keine Aufsicht gibt, erhöht die Einstellung von mehr Entwicklern den Kapitalaufwand des Unternehmens, ohne dass ein Mehrwert entsteht.
Anstelle dieses Szenarios zielt MLOps darauf ab, eine Methodik hinzuzufügen, die auf den erfolgreichen Lektionen von DevOps aufbaut und gleichzeitig die einzigartigen Merkmale des maschinellen Lernens behandelt. Auf Unternehmensebene geht es bei der Datenwissenschaft letztlich um den ROI. Für die meisten Unternehmen ist die Technologie ein Beschleuniger für den Wert, nicht der Wert selbst. Unternehmen, die einen Hunger nach ROI entwickeln, können schnell die MLOps-Mentalität übernehmen.
Kritisches Denken - Diskussionsfragen
-
Es gibt viele Methoden, um Modelle für maschinelles Lernen in der Produktion einzusetzen, z. B. vortrainierte Modelle, APIs, AutoML und individuelles Training. Was sind die Vor- und Nachteile jeder dieser Methoden?
-
Welche Strategien könnte ein Unternehmen anwenden, um neue Talente für das maschinelle Lernen zu gewinnen und die vorhandenen Talente zu schulen und umzuschulen?
-
Wenn deine Organisation derzeit kein DevOps betreibt, eine für MLOps notwendige Basiskomponente, wie könnte sie dann ein erstes DevOps-Projekt starten, um Konzepte wie CI/CD und Infrastructure as Code (IaC) zu testen?
-
Wenn dein Unternehmen nicht über große Mengen an eigenen Daten verfügt, wie kann es dann maschinelles Lernen nutzen, um sich einen Wettbewerbsvorteil zu verschaffen?
-
Wie sieht die Cloud-Strategie deines Unternehmens aus: Single Cloud, Multi Cloud, Hybrid Cloud, Private Cloud oder etwas anderes? Wie hilft dies deiner Organisation, ihre MLOps-Ziele zu erreichen?
Übungen
-
Gehe zu einer beliebten Modell-Hosting-Seite wie TensorFlow Hub oder Hugging Face und stelle eines ihrer Modelle auf deiner bevorzugten Cloud-Plattform bereit.
-
Wähle eine Cloud-basierte Entwicklungsumgebung wie GitHub Codespaces, Amazon SageMaker Studio Lab oder Google Colab und erkunde die Benutzeroberfläche mit Blick auf die Entwicklung eines Engineering-Projekts für maschinelles Lernen.
-
Verwende ein App-Framework für maschinelles Lernen wie Gradio oder Streamlit, um eine einfache Anwendung für maschinelles Lernen zu erstellen.
-
Überlege dir mehrere organisatorische Probleme, die von der Nutzung von maschinellem Lernen profitieren könnten, und baue einen einfachen Prototyp mit einer MLOps-Technologie.
-
Wandle ein Kaggle-Projekt in ein MLOps-Projekt um, indem du den Datensatz herunterlädst und eine MLOps-Technologie für die Vorhersagen programmierst.
1 Dr. Luks fasst die systematische, evidenzbasierte Strategie zusammen: "Schaffe ein Kaloriendefizit, dann bleibe schlank. Schlaf dich aus. Iss richtiges Essen. Bewege dich oft, den ganzen Tag über. Schiebe und ziehe schwere Dinge. Triff dich mit anderen. Habe ein Ziel vor Augen."
2 In Principles of Macroeconomics (McGraw Hill, 2009), erzählt Ben S. Bernanke die Geschichte, wie ein talentierter Koch in einem Szenario mit perfektem Wettbewerb den gesamten Gewinn aus einem Restaurant abziehen könnte, da er ständig für ein höheres Gehalt in einem konkurrierenden Restaurant abwandern würde, was letztlich den gesamten Gewinn für den Besitzer vernichten würde.
3 Die Soziologen Robert K. Merton und Harriet Zuckerman haben diesen Begriff erstmals geprägt.
Get Implementierung von MLOps im Unternehmen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.