
Se presenta un diagrama de arquitectura de aprendizaje profundo limpio y profesional de un Autoencoder Variacional (VAE). A la izquierda, una red codificadora, compuesta por capas convolucionales, reduce progresivamente el tamaño de una imagen RGB de 32×32. El codificador genera dos vectores etiquetados como “μ(x)” y “σ(x)”. En el centro, un bloque de espacio latente ilustra el truco de reparametrización: z = μ + σ ⊙ ε, con ε muestreado de una distribución gaussiana estándar. A la derecha, una red decodificadora reconstruye la imagen utilizando una arquitectura robusta que incorpora bloques residuales, módulos de atención y capas de upsampling PixelShuffle, aumentando progresivamente la resolución espacial de nuevo a 32×32×3. Las flechas indican el flujo de datos desde el codificador al espacio latente y al decodificador. El diseño es minimalista y plano, con un fondo blanco, etiquetas claras y un estilo académico, adecuado para una presentación de aprendizaje automático.
El proceso se desarrolla en cinco etapas centrales: entrada ...