Kapitel 10. Schutzmechanismen für Modelle aufbauen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Bei der Entwicklung von Datenbanken oder verteilten Systemen ( ) befassen sich Softwareentwickler/innen mit der Fehlertoleranz, also der Fähigkeit eines Systems, weiterzuarbeiten, wenn einige seiner Komponenten fehlschlagen. Bei Software geht es nicht um die Frage, ob ein bestimmter Teil des Systems fehlschlägt, sondern wann. Die gleichen Prinzipien lassen sich auch auf ML anwenden. Egal wie gut ein Modell ist, es wird bei einigen Beispielen fehlschlagen, also solltest du ein System entwickeln, das mit solchen Fehlern umgehen kann.

In diesem Kapitel gehen wir auf verschiedene Möglichkeiten ein, um Fehler zu vermeiden oder abzumildern. Zunächst werden wir sehen, wie wir die Qualität der empfangenen und produzierten Daten überprüfen und anhand dieser Überprüfung entscheiden können, wie die Ergebnisse den Nutzern angezeigt werden sollen. Dann schauen wir uns an, wie wir eine Modellierungspipeline robuster machen können, damit sie viele Nutzer/innen effizient bedienen kann. Danach sehen wir uns an, wie wir das Feedback der Nutzer/innen nutzen und die Leistung eines Modells beurteilen können. Das Kapitel endet mit einem Interview mit Chris Moody über bewährte Methoden zur Bereitstellung.

Misserfolge umgehen

Unter findest du einige der häufigsten Möglichkeiten, wie eine ML-Pipeline fehlschlagen kann. ...

Get Aufbau von Anwendungen mit maschinellem Lernen now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.