🌐 3D Embedding-Raum + Positional Encoding
Rote Pfeile zeigen die Positionsvektoren, die zu den Embeddings addiert werden
🖱️ Linke Maustaste: Drehen | Rechte Maustaste/Zwei Finger: Verschieben | Mausrad: Zoomen
Verstehe, wie Wörter als Vektoren dargestellt werden und wie Positionsinformationen bei Transformern hinzugefügt werden
Rote Pfeile zeigen die Positionsvektoren, die zu den Embeddings addiert werden
🖱️ Linke Maustaste: Drehen | Rechte Maustaste/Zwei Finger: Verschieben | Mausrad: Zoomen
Embeddings sind numerische Repräsentationen von Wörtern. Anstatt Wörter als diskrete Symbole zu behandeln, werden sie als Vektoren (Arrays von Zahlen) in einem hochdimensionalen Raum dargestellt.
Positional Encodings lösen dieses Problem, indem sie Positionsinformationen zu jedem Embedding hinzufügen:
In der Visualisierung: Beobachte, wie identische Wörter (wie "die") sich zu verschiedenen Positionen bewegen, wenn Positional Encoding AN ist. Die roten Pfeile zeigen die Positionsvektoren, die addiert werden!
💭 Probiere: Tippe "Katze Hund Katze" - beachte, dass die zwei "Katze"-Tokens bei aktiviertem Encoding an unterschiedlichen Positionen landen!