
Sign up to save your podcasts
Or


KI und Peak LLM: Der Weg zur Allgemeinen Intelligenz
Wer hat Recht im Kampf um die Zukunft der KI? Yann LeCun von Meta und Adam Brown von DeepMind streiten darüber, ob Large Language Models uns zur Allgemeinen Intelligenz führen können – oder ob wir komplett neue Architekturen brauchen. Spoiler: Beide haben verdammt gute Argumente, und wir sortieren für euch den Hype vom Bullshit.
In dieser Episode tauchen wir tief ein in die spannendste Debatte der KI-Forschung: Kann Skalierung allein zu AGI führen, oder brauchen wir Weltmodelle und physikalisches Verständnis? Barbara erklärt, warum ein vierjähriges Kind nicht so intelligent wie ein LLM ist (auch wenn beide gleich viele Daten gesehen haben), und Jochen fragt die Fragen, die wir uns alle stellen: Was zur Hölle ist eigentlich "emergentes Verständnis"?
Wir klären auf, warum diskrete Token und kontinuierliche Daten nicht dasselbe sind, was Gary Marcus mit Papageien zu tun hat (und warum selbst er das nicht mehr sagt), und ob uns wirklich eine Büroklammer-produzierende KI vernichten wird. Spoiler: Die echte Gefahr liegt woanders – und sie ist schon da.
🔗 LINKS & QUELLEN
Hauptartikel zur Episode:
Erwähnte Personen:
Yann LeCun (Meta - Chief AI Scientist):
Adam Brown (Google DeepMind - Blueshift Team):
Gary Marcus (Kognitionswissenschaftler und KI-Kritiker):
Erwähnte Technologien & Demos:
OpenAI Figure 01 Roboter-Demo (März 2024):
JEPA (Joint Embedding Predictive Architecture):
Weitere Ressourcen:
📚 KAPITELMARKER
00:00:00 Einleitung und Begrüßung
💡 KERNAUSSAGEN DIESER EPISODE
• LLMs haben so viele Daten verarbeitet wie ein vierjähriges Kind - aber ohne dessen physikalisches Verständnis
🎯 ZITATE DER EPISODE
"Wir haben 80 Millionen Bundestrainer - jeder hat jetzt eine Meinung zu AI." - Barbara
"Wenn das Ding morgens aufwacht und uns alle töten will, dann hat der Mensch ihm das als Zielsetzung vorgegeben." - Barbara
"Die größere Bedrohung ist dieser komische Zweibeiner aus Kohlenstoff, nicht das Silizium." - Barbara über KI-Alarmismus
"Wir bringen uns schon noch schön alle um, bevor die Maschine uns umbringt." - Barbara
"Die Monopolisierung haben wir jetzt schon. Da müssen wir jetzt gucken, dass wir aus der Nummer rauskommen." - Barbara
🧠 FÜR NERDS & DEEP-DIVES
Wenn ihr mehr über die technischen Hintergründe erfahren wollt:
===============================================================================
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein Entrinnen!
Unsere Hosts
Unser Podcast Blog
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.
By Jochen G. Fuchs, Barbara LamplKI und Peak LLM: Der Weg zur Allgemeinen Intelligenz
Wer hat Recht im Kampf um die Zukunft der KI? Yann LeCun von Meta und Adam Brown von DeepMind streiten darüber, ob Large Language Models uns zur Allgemeinen Intelligenz führen können – oder ob wir komplett neue Architekturen brauchen. Spoiler: Beide haben verdammt gute Argumente, und wir sortieren für euch den Hype vom Bullshit.
In dieser Episode tauchen wir tief ein in die spannendste Debatte der KI-Forschung: Kann Skalierung allein zu AGI führen, oder brauchen wir Weltmodelle und physikalisches Verständnis? Barbara erklärt, warum ein vierjähriges Kind nicht so intelligent wie ein LLM ist (auch wenn beide gleich viele Daten gesehen haben), und Jochen fragt die Fragen, die wir uns alle stellen: Was zur Hölle ist eigentlich "emergentes Verständnis"?
Wir klären auf, warum diskrete Token und kontinuierliche Daten nicht dasselbe sind, was Gary Marcus mit Papageien zu tun hat (und warum selbst er das nicht mehr sagt), und ob uns wirklich eine Büroklammer-produzierende KI vernichten wird. Spoiler: Die echte Gefahr liegt woanders – und sie ist schon da.
🔗 LINKS & QUELLEN
Hauptartikel zur Episode:
Erwähnte Personen:
Yann LeCun (Meta - Chief AI Scientist):
Adam Brown (Google DeepMind - Blueshift Team):
Gary Marcus (Kognitionswissenschaftler und KI-Kritiker):
Erwähnte Technologien & Demos:
OpenAI Figure 01 Roboter-Demo (März 2024):
JEPA (Joint Embedding Predictive Architecture):
Weitere Ressourcen:
📚 KAPITELMARKER
00:00:00 Einleitung und Begrüßung
💡 KERNAUSSAGEN DIESER EPISODE
• LLMs haben so viele Daten verarbeitet wie ein vierjähriges Kind - aber ohne dessen physikalisches Verständnis
🎯 ZITATE DER EPISODE
"Wir haben 80 Millionen Bundestrainer - jeder hat jetzt eine Meinung zu AI." - Barbara
"Wenn das Ding morgens aufwacht und uns alle töten will, dann hat der Mensch ihm das als Zielsetzung vorgegeben." - Barbara
"Die größere Bedrohung ist dieser komische Zweibeiner aus Kohlenstoff, nicht das Silizium." - Barbara über KI-Alarmismus
"Wir bringen uns schon noch schön alle um, bevor die Maschine uns umbringt." - Barbara
"Die Monopolisierung haben wir jetzt schon. Da müssen wir jetzt gucken, dass wir aus der Nummer rauskommen." - Barbara
🧠 FÜR NERDS & DEEP-DIVES
Wenn ihr mehr über die technischen Hintergründe erfahren wollt:
===============================================================================
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein Entrinnen!
Unsere Hosts
Unser Podcast Blog
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.