Capítulo 14. ResNets
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En este capítulo, nos basaremos en las CNN introducidas en el capítulo anterior y te explicaremos la arquitectura ResNet (red residual). Fue introducida en 2015 por Kaiming He et al. en el artículo "Deep Residual Learning for Image Recognition" (Aprendizaje residual profundo para el reconocimiento de imágenes) y es, con diferencia, la arquitectura de modelos más utilizada en la actualidad. Los desarrollos más recientes en modelos de imágenes casi siempre utilizan el mismo truco de las conexiones residuales, y la mayoría de las veces, no son más que un retoque de la ResNet original.
Primero te mostraremos la ResNet básica tal y como se diseñó por primera vez y luego te explicaremos los retoques modernos que la hacen más eficaz. Pero primero, necesitaremos un problema un poco más difícil que el conjunto de datos MNIST, puesto que ya estamos cerca del 100% de precisión con una CNN normal en él.
Volver a Imagenette
Va a ser difícil juzgar cualquier mejora que hagamos en nuestros modelos cuando ya tenemos una precisión tan alta como la que vimos en MNIST en el capítulo anterior, así que abordaremos un problema de clasificación de imágenes más difícil volviendo a Imagenette. Nos ceñiremos a imágenes pequeñas para mantener las cosas razonablemente rápidas.
Tomemos los datos: utilizaremos la versión ya redimensionada a 160 px para agilizar aún más ...
Get Aprendizaje profundo para programadores con fastai y PyTorch now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.