Heute wird’s technisch – aber nicht trocken:
Buschi nimmt dich mit in die Welt der großen Sprachmodelle (LLMs), genauer gesagt: in ihr Innenleben. Wie funktioniert eigentlich ein Transformer, und was genau passiert, wenn wir einen Text eingeben? Die Folge führt Schritt für Schritt durch:
- die Tokenisierung: Wie aus Wörtern kleinere Verarbeitungseinheiten werden
- die Vektorisierung: Warum jedes Token eine Zahl bekommt – und dann ein Ort in einem mehrdimensionalen Raum
- die Embedding-Matrix: Wie ein „semantischer Raum“ entsteht, in dem „Hund“ und „Katze“ näher beieinanderliegen als „Hund“ und „Bohrmaschine“
- und schließlich: warum all das nicht wirklich Verstehen ist, aber trotzdem erstaunlich gut funktioniert
Eine dichte, aber verständliche Folge – mit anschaulichen Beispielen für alle, die endlich mal wissen wollen, was KI beim Schreiben wirklich tut.
Weiterführender Link: https://www.youtube.com/watch?v=wjZofJX0v4M&ab_channel=3Blue1Brown
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an
[email protected]
Alle Folgen & mehr: https://ki-kantine.letscast.fm/