Kapitel 23. Speichern, Laden und Bereitstellen vontrainierten Modellen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

23.0 Einleitung

In den letzten 22 Kapiteln und rund 200 Rezepten haben wir uns damit beschäftigt, wie man aus Rohdaten mit Hilfe von maschinellem Lernen gut funktionierende Vorhersagemodelle erstellt. Doch damit sich unsere Arbeit lohnt, müssen wir unser Modell auch nutzen können, z. B. indem wir es in eine bestehende Softwareanwendung integrieren. Um dieses Ziel zu erreichen, müssen wir in der Lage sein, unsere Modelle nach dem Training zu speichern, sie zu laden, wenn sie von einer Anwendung benötigt werden, und dann Anfragen an diese Anwendung zu stellen, um Vorhersagen zu erhalten.

ML-Modelle werden in der Regel auf einfachen Webservern eingesetzt und sind so konzipiert, dass sie Eingabedaten entgegennehmen und Vorhersagen liefern. Dadurch steht das Modell jedem Client im selben Netzwerk zur Verfügung, so dass andere Dienste (z. B. Benutzeroberflächen, Benutzer usw.) das ML-Modell nutzen können, um Vorhersagen in Echtzeit zu treffen, wo immer sie sich befinden. Ein Beispiel für einen Anwendungsfall wäre die Verwendung von ML für die Artikelsuche auf einer E-Commerce-Website, bei der ein ML-Modell verwendet wird, das Daten über Nutzer und Angebote aufnimmt und die Wahrscheinlichkeit angibt, dass der Nutzer dieses Angebot kauft. Die Suchergebnisse müssen in Echtzeit verfügbar ...

Get Maschinelles Lernen mit Python Kochbuch, 2. now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.