Kapitel 8. Modellbereitstellung mit TensorFlow Serving
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Die Bereitstellung deines maschinellen Lernmodells ist der letzte Schritt, bevor andere dein Modell nutzen und damit Vorhersagen treffen können. Leider fällt der Einsatz von maschinellen Lernmodellen in eine Grauzone, wenn man an die heutige Arbeitsteilung in der digitalen Welt denkt. Es ist nicht nur eine DevOps-Aufgabe, da sie ein gewisses Wissen über die Architektur des Modells und seine Hardwareanforderungen erfordert. Gleichzeitig liegt die Bereitstellung von Machine-Learning-Modellen ein wenig außerhalb der Komfortzone von Machine-Learning-Ingenieuren und Data Scientists. Sie kennen ihre Modelle in- und auswendig, tun sich aber mit dem Einsatz von Machine-Learning-Modellen eher schwer. In diesem und dem folgenden Kapitel wollen wir die Kluft zwischen den Welten überbrücken und Datenwissenschaftler und DevOps-Ingenieure durch die Schritte zum Einsatz von Machine Learning-Modellen führen. Abbildung 8-1 zeigt die Position des Bereitstellungsschritts in einer Pipeline für maschinelles Lernen.
Modelle für maschinelles Lernen können auf drei Arten eingesetzt werden: mit einem Modellserver, im Browser des Nutzers oder auf einem Kantengerät. ...
Get Aufbau von Pipelines für maschinelles Lernen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.