
Sign up to save your podcasts
Or


Die Details:
🤖 Das Problem: Klassische KI-Modelle löschen beim Lernen oft bereits gespeichertes Wissen – das sogenannte „katastrophale Vergessen“.
🧩 Die Idee: Nested Learning teilt das Modell in verschiedene „Gedächtnisschichten“ – schnelle, flexible Bereiche für neues Wissen und langsame, stabile für langfristiges Verständnis.
⚙️ Das Ziel: KI soll ihr Wissen stetig erweitern können, ohne das Alte zu verlieren.
🔬 Die Herkunft: Vom gleichen Forschungsteam, das 2017 mit „Attention is all you need“ den Transformer erfand.
🗣️ Die Stimmen: „Ein wichtiger Ansatz – ob er funktioniert, wird die Zeit zeigen“, sagt Jakob Uszkoreit, Mitautor des legendären Transformer-Papiers.
Warum es wichtig ist?
Wenn KI-Systeme wirklich kontinuierlich lernen könnten, wären sie nicht mehr auf riesige Neu-Trainings angewiesen. Sie könnten sich wie Menschen an neue Informationen anpassen – ohne ihr Gedächtnis zu verlieren. Das wäre ein Meilenstein für alle lernenden Systeme.
Die Europäische Perspektive:
Für Europa, wo Datenschutz und Modelltransparenz im Fokus stehen, könnte Nested Learning ein Wendepunkt sein. Denn ein solches System ließe sich leichter mit menschlichem Lernen und Verantwortung vereinbaren – eine Brücke zwischen Ethik und Effizienz.
Die Promptfather Inspiration:
Kann eine Maschine ein Gedächtnis haben – oder nur Daten?
Unser Gehirn verknüpft Erlebnisse, Emotionen, Muster. KI-Modelle verknüpfen Zahlen. Doch mit Nested Learning verschwimmt diese Grenze erstmals. Vielleicht ist Lernen nicht länger nur ein Prozess – sondern eine Beziehung zwischen Wissen und Zeit.
👉 Wer lernt, ohne zu vergessen, verändert die Zukunft des Wissens.
🔗 https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/
By Sindre WimbergerDie Details:
🤖 Das Problem: Klassische KI-Modelle löschen beim Lernen oft bereits gespeichertes Wissen – das sogenannte „katastrophale Vergessen“.
🧩 Die Idee: Nested Learning teilt das Modell in verschiedene „Gedächtnisschichten“ – schnelle, flexible Bereiche für neues Wissen und langsame, stabile für langfristiges Verständnis.
⚙️ Das Ziel: KI soll ihr Wissen stetig erweitern können, ohne das Alte zu verlieren.
🔬 Die Herkunft: Vom gleichen Forschungsteam, das 2017 mit „Attention is all you need“ den Transformer erfand.
🗣️ Die Stimmen: „Ein wichtiger Ansatz – ob er funktioniert, wird die Zeit zeigen“, sagt Jakob Uszkoreit, Mitautor des legendären Transformer-Papiers.
Warum es wichtig ist?
Wenn KI-Systeme wirklich kontinuierlich lernen könnten, wären sie nicht mehr auf riesige Neu-Trainings angewiesen. Sie könnten sich wie Menschen an neue Informationen anpassen – ohne ihr Gedächtnis zu verlieren. Das wäre ein Meilenstein für alle lernenden Systeme.
Die Europäische Perspektive:
Für Europa, wo Datenschutz und Modelltransparenz im Fokus stehen, könnte Nested Learning ein Wendepunkt sein. Denn ein solches System ließe sich leichter mit menschlichem Lernen und Verantwortung vereinbaren – eine Brücke zwischen Ethik und Effizienz.
Die Promptfather Inspiration:
Kann eine Maschine ein Gedächtnis haben – oder nur Daten?
Unser Gehirn verknüpft Erlebnisse, Emotionen, Muster. KI-Modelle verknüpfen Zahlen. Doch mit Nested Learning verschwimmt diese Grenze erstmals. Vielleicht ist Lernen nicht länger nur ein Prozess – sondern eine Beziehung zwischen Wissen und Zeit.
👉 Wer lernt, ohne zu vergessen, verändert die Zukunft des Wissens.
🔗 https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/