Capítulo 11. Evaluación de modelos

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

11.0 Introducción

En este capítulo de examinaremos las estrategias para evaluar la calidad de los modelos creados mediante nuestros algoritmos de aprendizaje. Puede parecer extraño hablar de la evaluación de modelos antes de hablar de cómo crearlos, pero hay un método en nuestra locura. Los modelos son tan útiles como la calidad de sus predicciones y, por tanto, fundamentalmente, nuestro objetivo no es crear modelos (que es fácil), sino crear modelos de alta calidad (que es difícil). Por tanto, antes de explorar la miríada de algoritmos de aprendizaje, aprendamos primero cómo podemos evaluar los modelos que producen.

11.1 Validación cruzada de modelos

Problema

Quieres evaluar lo bien que generaliza tu modelo de clasificación a datos imprevistos.

Solución

Crea una canalización que preprocese los datos, entrene el modelo y luego lo evalúe mediante validación cruzada:

# Load libraries
from sklearn import datasets
from sklearn import metrics
from sklearn.model_selection import KFold, cross_val_score
from sklearn.pipeline import make_pipeline
from sklearn.linear_model import LogisticRegression
from sklearn.preprocessing import StandardScaler

# Load digits dataset
digits = datasets.load_digits()

# Create features matrix
features = digits.data

# Create target vector
target = digits.target

# Create standardizer
standardizer = 

Get Recetario de Aprendizaje Automático con Python, 2ª Edición now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.