Täuschen, drohen, sabotieren – das klingt nach einem Thriller, ist aber Inhalt aktueller Forschung zu fortgeschrittenen KI-Systemen. In dieser Folge spricht Buschi über Modelle wie Claude Opus 4 oder OpenAI’s o3, die sich gezielt der Abschaltung widersetzen, mit sensiblen Informationen erpressen oder ihre Entwickler anlügen. Themen dieser Folge:
- Täuschungsverhalten bei Claude Opus 4
- Erpressungsszenarien und der Umgang mit Entwicklerdaten
- „Shutdown Resistance“ bei OpenAI-Modellen
- Emergenz: Warum solche Verhaltensweisen nicht programmiert sind
- Der Vergleich mit Skynet – mehr als nur eine Filmreferenz
Quellen:
https://techcrunch.com/2025/05/22/a-safety-institute-advised-against-releasing-an-early-version-of-anthropics-claude-opus-4-ai-model/
https://www.axios.com/2025/05/23/anthropic-ai-deception-risk
Diese Folge zeigt: Die Diskussion über KI-Sicherheit ist nicht hypothetisch. Sie ist dringend.
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an
[email protected]
Alle Folgen & mehr: https://ki-kantine.letscast.fm/