(0:00) Einleitung
Begrüßung und das Ende des Dogmas „Größer ist besser“.
(1:20) Die alte Welt & EU-AI-ActÜber das klassische Training, Scaling Laws und Regulierung per Rechenleistung.
(3:38) Was ist Inferenz?Der Wechsel vom Bau der Fabrik (Training) zum laufenden Betrieb (Inferenz).
(5:17) Chain of ThoughtWarum „längeres Nachdenken“ kleine Modelle extrem leistungsfähig macht.
(7:19) Markt & MachtverhältnisseDemokratisierungschancen vs. neue Hardware-Engpässe bei Big Tech.
(9:44) Regulatorisches DilemmaWarum statische Gesetze mit der dynamischen Inferenz-Nutzung überfordert sind.
(11:07) KI vs. Datenschutz (DSGVO)Das Problem, Daten aus einem fertigen Modell zu löschen („Kuchen-Analogie“).
(12:32) Transparenzpflichten 2025Neue Regeln zur Offenlegung von Datenquellen und deren Grenzen.
(13:42) Fazit & AusblickZusammenfassung der tektonischen Verschiebung in der KI-Governance.
Folgennummer: L018
Titel: KI-Revolution 2026: Transparenz, Machtkämpfe und neue Gesetze
Willkommen zu dieser tiefgreifenden Analyse der aktuellen KI-Landschaft. In dieser Podcast-Folge beleuchten wir die massiven Verschiebungen in der Welt der Künstlichen Intelligenz – von den neuen Transparenzgesetzen in Kalifornien bis hin zu den komplexen Anforderungen des EU AI Acts und der alles entscheidenden Frage: Wer kontrolliert die Infrastruktur hinter der Intelligenz?
Was Sie in dieser Folge erwartet:
Training vs. Inferenz – Der wirtschaftliche Wendepunkt: Wir klären den fundamentalen Unterschied zwischen der Lernphase (Training) und der Anwendung (Inferenz) von KI-Modellen. Während das Training hohe Vorabinvestitionen erfordert, machen die laufenden Kosten der Inferenz oft 80–90 % der Gesamtkosten eines KI-Systems aus. Wir besprechen den Trend zum „Inference-Time Compute Scaling“, bei dem Modelle wie OpenAI’s o-Serie oder DeepSeek-R1 durch längeres „Nachdenken“ ihre Leistung steigern, ohne dass ein massives neues Training nötig ist.
Das Ende der Geheimhaltung? Kaliforniens AB 2013: Ab dem 1. Januar 2026 müssen Entwickler generativer KI detailliert offenlegen, welche Daten sie für das Training nutzen. Wir diskutieren, wie dieses Gesetz das Urheberrecht und den Datenschutz revolutioniert und was es für Giganten wie OpenAI und Google bedeutet.
Das KI-Oligopol und die Macht der Hardware: Die KI-Infrastruktur ist extrem konzentriert. Wenige Firmen dominieren die Produktion von Mikrochips (NVIDIA, ASML) und die Cloud-Plattformen (AWS, Azure, Google Cloud). Wir analysieren die Risiken dieser Marktmacht für die Demokratie und die wirtschaftliche Gleichheit sowie den „Antimonopoly-Ansatz“ zur Regulierung.
Sicherheit und „Chain of Thought“: Kann man einer KI beim Denken zusehen? Wir untersuchen das Potenzial des CoT-Monitorings (Chain of Thought), um Fehlverhalten von Modellen zu erkennen, bevor es Schaden anrichtet, und warum diese Methode dennoch fragil bleibt. Außerdem stellen wir den BIG-Argument-Ansatz für KI-Sicherheitsnachweise vor: Balanced, Integrated und Grounded.
KI in der Medizin – Ein riskantes Feld: Warum kommen so viele KI-Medizinprodukte ohne klinische Studien auf den Markt? Wir werfen einen Blick auf die Lücken im FDA-Zulassungsprozess und die Notwendigkeit einer strengen Überwachung nach dem Markteintritt (Post-Market Surveillance), um Patientensicherheit zu garantieren.
DSGVO-Hürden für Sprachmodelle: Das „Recht auf Vergessenwerden“ kollidiert frontal mit der Architektur von LLMs. Wir besprechen die technischen Schwierigkeiten, persönliche Daten aus den Milliarden Parametern eines trainierten Modells wieder zu löschen.
Diese Folge ist unverzichtbar für Entscheider, Entwickler und alle, die verstehen wollen, wie die rechtlichen und technischen Leitplanken der Zukunft aussehen. Die Ära der „Blackbox-KI“ neigt sich dem Ende zu – seien Sie bereit für das Zeitalter der Transparenz.
(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)