Kapitel 9. Erweiterte Modelleinsätze mit TensorFlow Serving
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Im vorherigen Kapitel haben wir den effizienten Einsatz von TensorFlow- oder Keras-Modellen mit TensorFlow Serving besprochen. Mit dem Wissen über den grundlegenden Einsatz von Modellen und die Konfiguration von TensorFlow Serving stellen wir in diesem Kapitel nun fortgeschrittene Anwendungsfälle für den Einsatz von Machine Learning-Modellen vor. Die Anwendungsfälle berühren eine Vielzahl von Themen, z. B. den Einsatz von A/B-Tests, die Optimierung von Modellen für den Einsatz und die Skalierung und die Überwachung von Modelleinsätzen. Wenn du noch keine Gelegenheit hattest, das vorherige Kapitel zu lesen, empfehlen wir dir, dies zu tun, da es die Grundlagen für dieses Kapitel liefert.
Entkopplung der Bereitstellungszyklen
Die in Kapitel 8 gezeigten grundlegenden Deployments funktionieren gut, aber sie haben eine Einschränkung: Das trainierte und validierte Modell muss entweder während des Build-Schritts in das Container-Image des Deployments aufgenommen oder während der Container-Laufzeit in den Container eingebunden werden, wie wir im vorherigen Kapitel besprochen haben. Beide Optionen erfordern entweder Kenntnisse über DevOps-Prozesse (z. B. die Aktualisierung von Docker-Container-Images) oder die Koordination zwischen dem Data-Science- und dem DevOps-Team während der Bereitstellungsphase ...
Get Aufbau von Pipelines für maschinelles Lernen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.