Capítulo 11. Evaluación de modelos
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
11.0 Introducción
En este capítulo de examinaremos las estrategias para evaluar la calidad de los modelos creados mediante nuestros algoritmos de aprendizaje. Puede parecer extraño hablar de la evaluación de modelos antes de hablar de cómo crearlos, pero hay un método en nuestra locura. Los modelos son tan útiles como la calidad de sus predicciones y, por tanto, fundamentalmente, nuestro objetivo no es crear modelos (que es fácil), sino crear modelos de alta calidad (que es difícil). Por tanto, antes de explorar la miríada de algoritmos de aprendizaje, aprendamos primero cómo podemos evaluar los modelos que producen.
11.1 Validación cruzada de modelos
Problema
Quieres evaluar lo bien que generaliza tu modelo de clasificación a datos imprevistos.
Solución
Crea una canalización que preprocese los datos, entrene el modelo y luego lo evalúe mediante validación cruzada:
# Load libraries
from
sklearn
import
datasets
from
sklearn
import
metrics
from
sklearn.model_selection
import
KFold
,
cross_val_score
from
sklearn.pipeline
import
make_pipeline
from
sklearn.linear_model
import
LogisticRegression
from
sklearn.preprocessing
import
StandardScaler
# Load digits dataset
digits
=
datasets
.
load_digits
()
# Create features matrix
features
=
digits
.
data
# Create target vector
target
=
digits
.
target
# Create standardizer
standardizer
=
Get Recetario de Aprendizaje Automático con Python, 2ª Edición now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.