Capítulo 9. Servicio de Inferencia Escalable en la Nube con TensorFlow Serving y KubeFlow

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

Imagina esto: acabas de construir un clasificador de primera categoría. Tu objetivo, como reza el lema de Silicon Valley, es "hacer del mundo un lugar mejor", cosa que vas a hacer... con un clasificador Perro/Gato espectacular. Tienes un plan de negocio sólido y estás impaciente por presentar tu clasificador mágico a esa empresa de capital riesgo la semana que viene. Sabes que los inversores te interrogarán sobre tu estrategia en la nube, y necesitas mostrar una demostración sólida antes de que consideren siquiera la posibilidad de darte el dinero. ¿Cómo lo harías? Crear un modelo es la mitad de la batalla, servirlo es el siguiente reto, a menudo el mayor. De hecho, durante mucho tiempo era habitual que entrenar un modelo sólo llevara unas semanas, pero intentar servirlo a un grupo más amplio de personas era una batalla de meses, que a menudo implicaba a ingenieros de backend y equipos de DevOps.

En este capítulo respondemos a algunas preguntas que suelen surgir en el contexto del alojamiento y servicio de modelos personalizados.

  • ¿Cómo puedo alojar mi modelo en mi servidor personal para que mis compañeros de trabajo puedan jugar con él?

  • No soy ingeniero de backend/infraestructuras, pero quiero que mi modelo esté disponible para que pueda servir a miles (o incluso millones) ...

Get Aprendizaje Profundo Práctico para Nube, Móvil y Edge now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.