Kapitel 17. Model Deploy Service
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Auf dem Weg zur Bereitstellung von Erkenntnissen in der Produktion haben wir die Verarbeitungsabfragen optimiert und die Job-Pipelines orchestriert. Jetzt sind wir bereit, ML-Modelle in der Produktion einzusetzen und sie regelmäßig auf der Grundlage von Umschulungen zu aktualisieren.
Mehrere Probleme verlangsamen die Bereitstellungszeit. Der erste ist, dass es nicht standardisierte, selbst entwickelte Skripte für die Bereitstellung von Modellen gibt, die eine Reihe von ML-Modelltypen, ML-Bibliotheken und -Tools, Modellformaten und Bereitstellungsendpunkten (wie Internet of Things [IoT]-Geräte, Mobilgeräte, Browser und Web-API) unterstützen müssen. Das zweite Problem ist, dass es nach dem Einsatz keine standardisierten Frameworks gibt, um die Leistung der Modelle zu überwachen. In mandantenfähigen Umgebungen für das Modell-Hosting sorgt die Überwachung für eine automatische Skalierung der Modelle und eine Leistungsisolierung von anderen Modellen. Das dritte Problem ist die Sicherstellung der Vorhersagegenauigkeit der Modelle bei zeitlichen Schwankungen in der Datenverteilung. Die Bereitstellungszeit wirkt sich auf die Gesamtzeit bis zur Erkenntnis aus, sowohl bei der anfänglichen Modellbereitstellung als auch bei der laufenden Überwachung und Aktualisierung. Die Datennutzer müssen sich bei der Verwaltung der Bereitstellung ...
Get Die Self-Service-Daten-Roadmap now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.