Kapitel 9. Skalierbares Inference Serving in der Cloud mit TensorFlow Serving und KubeFlow

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Stell dir Folgendes vor: Du hast gerade einen erstklassigen Klassifikator gebaut. Dein Ziel ist es, wie es im Silicon Valley heißt, "die Welt zu einem besseren Ort zu machen", und das wirst du tun ... mit einem spektakulären Hund/Katzen-Klassifikator. Du hast einen soliden Geschäftsplan und kannst es kaum erwarten, deinen magischen Sichter nächste Woche bei der Risikokapitalfirma vorzustellen. Du weißt, dass die Investoren dich zu deiner Cloud-Strategie befragen werden und dass du eine solide Demo vorlegen musst, bevor sie überhaupt in Erwägung ziehen, dir das Geld zu geben. Wie würdest du das machen? Ein Modell zu erstellen ist die halbe Miete, es zu bedienen ist die nächste und oft die größere Herausforderung. Lange Zeit war es üblich, dass die Schulung eines Modells nur ein paar Wochen dauerte, aber der Versuch, es einer größeren Gruppe von Menschen zur Verfügung zu stellen, war ein monatelanger Kampf, an dem oft Backend-Ingenieure und DevOps-Teams beteiligt waren.

Unter beantworten wir in diesem Kapitel ein paar Fragen, die im Zusammenhang mit dem Hosting und der Bereitstellung von benutzerdefinierten Modellen häufig auftauchen.

  • Wie kann ich mein Modell auf meinem persönlichen Server hosten, damit meine Kolleginnen und Kollegen damit spielen können? ...

Get Praktisches Deep Learning für Cloud, Mobile und Edge now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.