Capítulo 12. Selección de modelos

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

12.0 Introducción

En el aprendizaje automático , utilizamos algoritmos de entrenamiento para aprender los parámetros de un modelo minimizando alguna función de pérdida. Sin embargo, muchos algoritmos de aprendizaje (por ejemplo, el clasificador de vectores de soporte y los bosques aleatorios) tienen hiperparámetros adicionales que son definidos por el usuario y afectan a la forma en que el modelo aprenderá sus parámetros. Como hemos mencionado antes en el libro, los parámetros (también llamados a veces pesos del modelo) son lo que los modelos aprenden durante el proceso de entrenamiento, mientras que los hiperparámetros los proporcionamos manualmente nosotros (los usuarios).

Por ejemplo, los bosques aleatorios son colecciones de árboles de decisión (de ahí la palabra bosque); sin embargo, el número de árboles de decisión del bosque no lo aprende el algoritmo y debe fijarse antes del ajuste. Esto suele denominarse ajuste de hiperparámetros, optimización de hiperparámetros o selección de modelos. Además, puede que queramos probar varios algoritmos de aprendizaje (por ejemplo, probar tanto el clasificador vectorial de soporte como los bosques aleatorios para ver qué método de aprendizaje produce el mejor modelo).

Aunque existe una amplia variación terminológica en este ámbito, en este libro nos referimos a la selección tanto del ...

Get Recetario de Aprendizaje Automático con Python, 2ª Edición now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.