Eine Risikobewertung
Jeden Tag gibt es neue KI-Tools, die Exploits zum Kinderspiel machen. Ein Riesensprung, dessen Auswirkungen Christoph und Felix in dieser Folge unter Security Gesichtspunkten diskutieren. Sollten Exploits veröffentlicht werden? Ist Responsible Disclosure noch zeitgemäß? Und außerdem: warum Threat-Models neu bewertet werden müssen.
Einige der KI-Tools die für den aktuellen Hype verantwortlich sind: Midjourney, Stable Diffusion, ChatGPT, Github Copilot, LLaMA C++.Jeder will jetzt KI nutzen: MS Teams, Zoom, Landesmedienanstalt NRW.Unsere Folgen zu Capture the Flag und Deepfakes.Unsere Trainings iSAQB® CPSA®-Advanced WEBSEC und OWASP Top Ten in der Praxis, damit ihr nicht von mit ChatGPT & Co. bewaffneten Script-Kiddies gehackt werdet.ChatGPT schreibt Malware.Die Gefahr von Training Data Extraction Attacks wenn Angestellte vertrauliche Informationen in ChatGPT eingeben. JPMorgan Chase, Amazon, Verizon und Accenture verbieten deshalb ChatGPT am Arbeitsplatz.The Most Dangerous Codec in the World: Finding and Exploiting Vulnerabilities in H.264 DecodersDefinitionen: Responsible Disclosure, Open Source Intelligence.ChatGPT & Co. in IT-Sicherheitsprodukten: MS Security Copilot und Socket Security.
Microsoft Tay.Das Paper (nicht peer-reviewed) bei dem auch Reverse Engineering und Penetration Testing mit GPT-4 behandelt wird.Phishing ist (immer noch) das größte Einfallstor.KI kann KI nicht gut erkennen.Prompt Injection. Auch die Content Filter können umgangen werden.Mit KI-Unterstützung wird weniger sicherer Code geschrieben oder auch nicht ¯\(ツ)/¯.Modelle können manipuliert werden oder Backdoors enthalten.Billiglohnaerbeiter:innen trainieren ChatGPT.TikTok Filter und Voice Cloning. Voice Cloning wird bereits erfolgreich in Scams genutzt. KI-Generierte Bilder von Donald Trumps Verhaftung und Papst Franzikus gehen viral.Der Hype um ChatGPT wird auch schon für Malware genutzt.Feedback
Falls ihr Fragen oder Anregungen habt, schreibt uns gerne eine E-Mail an [email protected].