Capítulo 3. Redes neuronales convolucionales
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Después de experimentar con las redes neuronales totalmente conectadas del Capítulo 2, probablemente te diste cuenta de algunas cosas. Si intentabas añadir más capas o aumentar enormemente el número de parámetros, casi seguro que te quedabas sin memoria en la GPU. Además, se tardaba un tiempo en entrenar hasta alcanzar algo parecido a una precisión decente, e incluso eso no era mucho de lo que alardear, sobre todo teniendo en cuenta la exageración que rodea al aprendizaje profundo. ¿Qué es lo que ocurre?
Es cierto que una red totalmente conectada o(feed-forward) puede funcionar como un aproximador universal, pero la teoría no dice cuánto tiempo tardarás en entrenarla para que se convierta en esa aproximación a la función que realmente buscas. Pero podemos hacerlo mejor, sobre todo con imágenes. En este capítulo, aprenderás sobre las redes neuronales conv olucionales (CNN) y cómo forman la columna vertebral de los clasificadores de imágenes más precisos que existen en la actualidad (de paso, veremos un par de ellos con cierto detalle). Construimos una nueva arquitectura basada en convolucionales para nuestra aplicación de pez contra gato y demostramos que es más rápida de entrenar y más precisa que lo que hacíamos en el capítulo anterior. ¡Empecemos!
Nuestro primer modelo convolucional
En esta ocasión, voy a compartir ...
Get Programación de PyTorch para Aprendizaje Profundo now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.