Capítulo 7. Depuración de modelos PyTorch

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

Hemos creado un montón de modelos hasta ahora en este libro, pero en este capítulo, echamos un breve vistazo a cómo interpretarlos y averiguar qué está pasando bajo las cubiertas. Echamos un vistazo al uso del mapeo de activación de clases con ganchos PyTorch para determinar el enfoque de la decisión de un modelo sobre cómo conectar PyTorch al TensorBoard de Google con fines de depuración. Muestro cómo utilizar los gráficos de llama para identificar los cuellos de botella en las transformaciones y los conductos de entrenamiento, así como proporciono un ejemplo trabajado de aceleración de una transformación lenta. Por último, veremos cómo cambiar computación por memoria al trabajar con modelos más grandes utilizando el punto de control. Antes, sin embargo, unas breves palabras sobre tus datos.

Son las 3 de la mañana. ¿Qué están haciendo tus datos?

Antes de profundizar en todas las cosas brillantes como TensorBoard o gradient checkpointing para utilizar modelos masivos en una sola GPU, pregúntate lo siguiente: ¿comprendes tus datos? Si estás clasificando entradas, ¿tienes una muestra equilibrada en todas las etiquetas disponibles? ¿En los conjuntos de entrenamiento, validación y prueba?

Y además, ¿estás seguro de que las etiquetas de son correctas ? Se sabe que importantes conjuntos de datos basados en imágenes, como MNIST ...

Get Programación de PyTorch para Aprendizaje Profundo now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.