Variational Autoencoder (VAE)
Interaktive Visualisierung mit Encoder- und Decoder-Netzwerken
🎮 Interactive Controls
📚 Wie VAEs funktionieren
Encoder-Netzwerk: Ein mehrschichtiges neuronales Netzwerk, das den Input auf Parameter der latenten Verteilung abbildet (Mittelwert μ und Log-Varianz log σ²). Jede Schicht transformiert die Repräsentation durch gelernte Gewichte.
Reparametrisierungstrick: z = μ + σ ⊙ ε, wobei ε ~ N(0,1). Dies ermöglicht es, dass Gradienten während der Rückwärtspropagierung durch die Sampling-Operation fließen können.
Latenter Raum: Eine komprimierte probabilistische Repräsentation, in der ähnliche Inputs zusammen gruppiert werden. Die Visualisierung zeigt Gauß-Verteilungen und gesampelte Punkte.
Decoder-Netzwerk: Ein mehrschichtiges neuronales Netzwerk, das den Input aus dem gesampelten latenten Vektor z rekonstruiert und lernt, Daten aus der latenten Repräsentation zu generieren.
Loss-Funktion: L = Rekonstruktionsverlust + β × KL-Divergenz. Balanciert akkurate Rekonstruktion mit einem wohlgeformten latenten Raum.
Probiere aus: Klicke auf "Animate Forward Pass", um den Datenfluss durch das Netzwerk zu sehen! Passe die latenten Variablen und β an, um die gelernte Mannigfaltigkeit zu erkunden.