HomeTools & Playgrounds AI & MLCalculateur de Complexité VAE

Calculateur de Complexité VAE

Calculateur de Complexité VAE

Paramètres, empreinte mémoire et coût d'entraînement d'un Auto-Encodeur Variationnel

Configuration de l'Architecture
Plage : 1 – 100 000 (ex. : 784 pour MNIST)
Valeurs entières séparées par des virgules
1.0
Plage : 0.1 – 10

Astuce de reparamétrisation : Au lieu d'échantillonner z ~ q(z|x) directement (non différentiable), on pose z = μ + σ · ε où ε ~ N(0,I), ce qui rend le gradient rétropropageable à travers la couche stochastique.

ELBO : L'objectif d'entraînement maximise la borne inférieure de vraisemblance (Evidence Lower BOund), soit la somme du terme de reconstruction E[log p(x|z)] et du régulariseur KL qui pousse q(z|x) vers la prior gaussienne p(z).

Résultats
Renseignez les paramètres à gauche pour voir les résultats

Questions fréquentes Auto-encodeur variationnel

Un auto-encodeur variationnel (VAE) est un modèle génératif de deep learning qui apprend à compresser des données en une distribution probabiliste dans un espace latent, puis à reconstruire des données plausibles à partir d’échantillons tirés de cette distribution.