
Sign up to save your podcasts
Or


Send us Fan Mail
In der aktuellen Episode von "Knowledge Science" tauchen Sigurd Schacht und Carsten Lanquillon tief in die mysteriösen Tiefen der Transformer-Modelle ein.
Sie sprechen über Logit Lens eine Methode, mittels der man die Aktivierungen der einzelnen Neuronen und Token besser verstehen kann, um mehr über den Denkprozess dieser großen Sprachmodelle zu erfahren.
Mit wertvollen Insights bieten sie eine spannende Reise in die Welt der mechanistischen Interpretierbarkeit und wie aktuelle Tools wie die Transformer Lens dabei helfen können.
Support the show
By Sigurd Schacht, Carsten LanquillonSend us Fan Mail
In der aktuellen Episode von "Knowledge Science" tauchen Sigurd Schacht und Carsten Lanquillon tief in die mysteriösen Tiefen der Transformer-Modelle ein.
Sie sprechen über Logit Lens eine Methode, mittels der man die Aktivierungen der einzelnen Neuronen und Token besser verstehen kann, um mehr über den Denkprozess dieser großen Sprachmodelle zu erfahren.
Mit wertvollen Insights bieten sie eine spannende Reise in die Welt der mechanistischen Interpretierbarkeit und wie aktuelle Tools wie die Transformer Lens dabei helfen können.
Support the show

62 Listeners

189 Listeners

103 Listeners

10 Listeners

16 Listeners

13 Listeners

67 Listeners

341 Listeners

12 Listeners

137 Listeners

19 Listeners

5 Listeners

1 Listeners

1 Listeners