Variational Autoencoder (VAE)

Interaktive Visualisierung mit Encoder- und Decoder-Netzwerken

Input Image
Encoder Network
Latent Space (z)
Decoder Network
Reconstructed

🎮 Interactive Controls

Reconstruction Loss
0.00
KL Divergence
0.00
Total Loss
0.00

📚 Wie VAEs funktionieren

Encoder-Netzwerk: Ein mehrschichtiges neuronales Netzwerk, das den Input auf Parameter der latenten Verteilung abbildet (Mittelwert μ und Log-Varianz log σ²). Jede Schicht transformiert die Repräsentation durch gelernte Gewichte.

Reparametrisierungstrick: z = μ + σ ⊙ ε, wobei ε ~ N(0,1). Dies ermöglicht es, dass Gradienten während der Rückwärtspropagierung durch die Sampling-Operation fließen können.

Latenter Raum: Eine komprimierte probabilistische Repräsentation, in der ähnliche Inputs zusammen gruppiert werden. Die Visualisierung zeigt Gauß-Verteilungen und gesampelte Punkte.

Decoder-Netzwerk: Ein mehrschichtiges neuronales Netzwerk, das den Input aus dem gesampelten latenten Vektor z rekonstruiert und lernt, Daten aus der latenten Repräsentation zu generieren.

Loss-Funktion: L = Rekonstruktionsverlust + β × KL-Divergenz. Balanciert akkurate Rekonstruktion mit einem wohlgeformten latenten Raum.

Probiere aus: Klicke auf "Animate Forward Pass", um den Datenfluss durch das Netzwerk zu sehen! Passe die latenten Variablen und β an, um die gelernte Mannigfaltigkeit zu erkunden.