
Sign up to save your podcasts
Or


Zu Gast: Dr. Tobias Wirth, Leiter des Transferlabors Innere Sicherheit am DFKI
Mit Tobias Wirth haben wir über die (Un-)Sicherheit von LLMs und KI Anwendungen in Sicherheitsbehörden gesprochen. Er ist Themenfeldleiter für generative und transparente KI im Forschungsbereich smarte Daten- und Wissensdienste am DFKI und leitet das Transferlabor KI-Forschung für die Polizei KI4POL.
Im Gespräch geht es um Möglichkeiten, LLMs auszutricksen, darum, wie Sicherheitsbehörden sich gegen die größten Angriffsvektoren schützen können und darum, was wir daraus auch auf den Alltag außerhalb von Sicherheitsbehörden lernen können.
Dr. Tobias Wirth (DFKI)
Dr. Tobias Wirth (LinkedIn)
BSI: Generative KI-Modelle – Chancen und Risiken für Industrie und Behörden (PDF)
BSI: Evasion-Angriffe auf LLMs – Gegenmaßnahmen (PDF)
Malwarebytes: ChatGPT Deep Research Zero-Click Vulnerability
OWASP Top 10 for Large Language Model Applications
Agentic LLM Vulnerabilities (arXiv, Stanford HAI)
GARAK – LLM Vulnerability Scanner
JailbreakChat (GitHub)
Prompt Injection in the Wild (Kaggle Dataset)
Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:
Antenna Pod (Android)
Pocket Casts (Android & iOS)
Overcast (iOS)
Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm
Die Sicherheits_lücke bei Mastodon
Die Sicherheits_lücke bei LinkedIn
Die Sicherheits_lücke bei Pixelfed
Feedback oder Kritik? Wünsche? Schreib uns: [email protected]
Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).
Monina Schwarz, LSI Bayern
Ingo Timm beim DFKI
Volker Skwarek an der HAW Hamburg
Produktion und Musik: Christian Friedrich
Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.
Podcast Design: Anne Vogt
Der Beitrag (Un-)sicher mit LLMs? erschien zuerst auf HOOU.
By HOOUZu Gast: Dr. Tobias Wirth, Leiter des Transferlabors Innere Sicherheit am DFKI
Mit Tobias Wirth haben wir über die (Un-)Sicherheit von LLMs und KI Anwendungen in Sicherheitsbehörden gesprochen. Er ist Themenfeldleiter für generative und transparente KI im Forschungsbereich smarte Daten- und Wissensdienste am DFKI und leitet das Transferlabor KI-Forschung für die Polizei KI4POL.
Im Gespräch geht es um Möglichkeiten, LLMs auszutricksen, darum, wie Sicherheitsbehörden sich gegen die größten Angriffsvektoren schützen können und darum, was wir daraus auch auf den Alltag außerhalb von Sicherheitsbehörden lernen können.
Dr. Tobias Wirth (DFKI)
Dr. Tobias Wirth (LinkedIn)
BSI: Generative KI-Modelle – Chancen und Risiken für Industrie und Behörden (PDF)
BSI: Evasion-Angriffe auf LLMs – Gegenmaßnahmen (PDF)
Malwarebytes: ChatGPT Deep Research Zero-Click Vulnerability
OWASP Top 10 for Large Language Model Applications
Agentic LLM Vulnerabilities (arXiv, Stanford HAI)
GARAK – LLM Vulnerability Scanner
JailbreakChat (GitHub)
Prompt Injection in the Wild (Kaggle Dataset)
Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:
Antenna Pod (Android)
Pocket Casts (Android & iOS)
Overcast (iOS)
Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm
Die Sicherheits_lücke bei Mastodon
Die Sicherheits_lücke bei LinkedIn
Die Sicherheits_lücke bei Pixelfed
Feedback oder Kritik? Wünsche? Schreib uns: [email protected]
Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).
Monina Schwarz, LSI Bayern
Ingo Timm beim DFKI
Volker Skwarek an der HAW Hamburg
Produktion und Musik: Christian Friedrich
Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.
Podcast Design: Anne Vogt
Der Beitrag (Un-)sicher mit LLMs? erschien zuerst auf HOOU.

47 Listeners

9 Listeners

13 Listeners

4 Listeners

6 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners