
Sign up to save your podcasts
Or


Vlad und Gabriel sprechen über Open-Source-Modelle und warum sie für Forschung, Transparenz und Innovation eine immer grössere Rolle spielen. Ein zentrales Thema ist Mechanistic Interpretability: Wenn ein Modell einmal „uns“ repräsentiert, wollen wir verstehen, wie es denkt und entscheidet.
Dabei geht es auch um die Idee, einen persönlichen Chatbot zu erschaffen, der mit den eigenen Gedanken, Erinnerungen und Entscheidungen trainiert ist, und der auch dann noch weiterbesteht, wenn man selbst nicht mehr da ist.
Die Folge bewegt sich zwischen Technik und Philosophie: Wo endet ein Tool, und wo beginnt ein digitales Weiterleben?
Weiteres zum Thema:
LEANN – Mechanistic Interpretability:
https://github.com/yichuan-w/LEANN
Hugging Face – Model Hub (Open-Source-Modelle):
https://huggingface.co/models
Model-Downloads & Popularität (CLIP Beispiel):
https://huggingface.co/api/models/openai/clip-vit-large-patch14?expand=downloads&expand=downloadsAllTime
Paper zu Interpretability & Agenten:
https://arxiv.org/pdf/2507.08017v4
By Gabriel und VladVlad und Gabriel sprechen über Open-Source-Modelle und warum sie für Forschung, Transparenz und Innovation eine immer grössere Rolle spielen. Ein zentrales Thema ist Mechanistic Interpretability: Wenn ein Modell einmal „uns“ repräsentiert, wollen wir verstehen, wie es denkt und entscheidet.
Dabei geht es auch um die Idee, einen persönlichen Chatbot zu erschaffen, der mit den eigenen Gedanken, Erinnerungen und Entscheidungen trainiert ist, und der auch dann noch weiterbesteht, wenn man selbst nicht mehr da ist.
Die Folge bewegt sich zwischen Technik und Philosophie: Wo endet ein Tool, und wo beginnt ein digitales Weiterleben?
Weiteres zum Thema:
LEANN – Mechanistic Interpretability:
https://github.com/yichuan-w/LEANN
Hugging Face – Model Hub (Open-Source-Modelle):
https://huggingface.co/models
Model-Downloads & Popularität (CLIP Beispiel):
https://huggingface.co/api/models/openai/clip-vit-large-patch14?expand=downloads&expand=downloadsAllTime
Paper zu Interpretability & Agenten:
https://arxiv.org/pdf/2507.08017v4