Capítulo 17. Autocodificadores, GAN y modelos de difusión

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

Los autocodificadores son redes neuronales artificiales capaces de aprender representaciones densas de los datos de entrada, llamadas representaciones latentes o codificaciones, sin ninguna supervisión (es decir, el conjunto de entrenamiento no está etiquetado). Estas codificaciones suelen tener una dimensionalidad mucho menor que los datos de entrada, lo que hace que los autocodificadores sean útiles para reducir la dimensionalidad (véase el Capítulo 8), especialmente con fines de visualización. Los autocodificadores también actúan como detectores de rasgos, y pueden utilizarse para el preentrenamiento no supervisado de redes neuronales profundas (como comentamos en el Capítulo 11). Por último, algunos autocodificadores son modelos generativos: son capaces de generar aleatoriamente nuevos datos muy parecidos a los de entrenamiento. Por ejemplo, podrías entrenar un autocodificador con imágenes de caras, y entonces sería capaz de generar caras nuevas.

Las redes generativas adversariales (GAN) también son redes neuronales capaces de generar datos. De hecho, pueden generar imágenes de caras tan convincentes que resulta difícil creer que las personas que representan no existen. Puedes juzgarlo tú mismo visitando https://thispersondoesnotexist.com, un sitio web que muestra rostros generados por una arquitectura ...

Get Aprendizaje automático práctico con Scikit-Learn, Keras y TensorFlow, 3ª edición now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.