
Sign up to save your podcasts
Or
Czy potrafisz przechytrzyć AI? 🤖 Odkryj, jak eksperci obchodzą zabezpieczenia modeli LLM i jak możesz chronić przed tym swoje aplikacje na prodzie! 🚀
W najnowszym odcinku podcastu #BliskieSpotkaniazAI posłuchaj rozmowy z Mateuszem Chrobokiem, ekspertem od AI i #cybersecurity. Rozmawiamy o obchodzeniu zabezpieczeń modeli językowych (LLM jailbreaking) – jak działa, co oznacza dla bezpieczeństwa i jak sobie z tym radzić. Zastanawiasz się, jak chronić swoje systemy, gdy AI wchodzi do gry? Odkryj skuteczne strategie i przygotuj się na przyszłość!
🎧 Oglądaj na YouTube:
https://www.youtube.com/watch?v=AWC6c-fOcFE
⭐️ Zobacz też:
- Agenty AI - Klucz do automatyzacji programowania https://www.youtube.com/watch?v=tOPKf9XiVXo
- Concierge AI – Czy hotelowi specjaliści stracą pracę? https://www.youtube.com/watch?v=IKzigMVtz8g
- Data Science - uzyskaj przewagę w biznesie dzięki danym https://www.youtube.com/watch?v=cXd7PqzvxDs
Linki do kontaktu z Mateuszem oraz materiały omawiane w odcinku:
🔗 Kontakt:
👉 Strona: https://chrobok.eu/
👉 LinkedIn: https://www.linkedin.com/in/mateuszchrobok/
👉 Instagram: https://instagram.com/mateuszemsi
👉 X: https://x.com/mateuszchrobok
👉 Kanał na YouTube: https://www.youtube.com/@MateuszChrobok
👉 Podcast: https://podcasters.spotify.com/pod/show/mateusz-chrobok
👉 Kurs bezpiecznej komunikacji: https://uczmnie.pl/
👉 Kurs AI_devs - programuj autonomicznych agentów i narzędzia GenAI: https://www.aidevs.pl?ref=r2132
📚 Materiały omawiane w odcinku:
👉 "DAN" and other Jailbreaks: https://gist.github.com/coolaj86/6f4f7b30129b0251f61fa7baaa881516
👉 Automatic Jailbreaking of the Text-to-Image Generative AI Systems: https://arxiv.org/abs/2405.16567
👉 ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs: https://arxiv.org/html/2402.11753v2
📖 Polecane książki:
👉 Pułapki myślenia. O myśleniu szybkim i wolnym - Daniel Kahneman: https://lubimyczytac.pl/ksiazka/5103227/pulapki-myslenia-o-mysleniu-szybkim-i-wolnym
👉 Inteligencja emocjonalna - Daniel Goleman: https://lubimyczytac.pl/ksiazka/15115/inteligencja-emocjonalna
👉 Sztuka podstępu. Łamałem ludzi, nie hasła - Kevin Mitnick, William L. Simon: https://lubimyczytac.pl/ksiazka/4302680/sztuka-podstepu-lamalem-ludzi-nie-hasla
👥 Polecane osoby:
👉 Andrej Karpathy - https://x.com/karpathy
👉 Elon Musk - https://x.com/elonmusk
👉 George Hotz, alias geohot
Rozdziały:
00:00 - Dziś w odcinku
01:35 - Wprowadzenie
02:11 - Mateusz Chrobok
09:31 - Jailbreaking AI – zagrożenia i przykłady
11:41 - Techniki jailbrekowania modeli AI
15:11 - Rola multimodalności i nowe techniki Jailbreaking
22:59 - Time to jailbreak
25:46 - Alignment w modelach AI – czym jest?
28:50 - Konsekwencje alignmentu i fake alignment
33:07 - Zabezpieczanie aplikacji przed jailbreakingiem i atakami w środowisku produkcyjnym
35:37 - Monitoring i narzędzia do ochrony LLM-ów
42:40 - Przyszłe prognozy jailbreakingu modeli LLM
45:15 - Inspiracje i wpływ literatury oraz osób na Mateusza
52:35 - Zakończenie
#BliskieSpotkaniazAI #Podcast #AI #Ai_devs #GPT #ChatGPT #LLM #AiAgents #JailbreakiTekstowe #CzasNaJailbreak #JailbreakMultimodalne #Chainy #AutomatyDoJailbreaku #OptymalizacjaCelów #UważajCzegoChcesz #EmergencjeEmoji #ZakazaneMiejsca #TextualJailbreaks #TimeToJailbreak #MultimodalJailbreaks #Chains #JailbreakMachines #GoalOptimization #AlignmentProblem #CarefulWhatYouWishFor #EmojiEmergences #ForbiddenPlaces #SztucznaInteligencja #SI
Czy potrafisz przechytrzyć AI? 🤖 Odkryj, jak eksperci obchodzą zabezpieczenia modeli LLM i jak możesz chronić przed tym swoje aplikacje na prodzie! 🚀
W najnowszym odcinku podcastu #BliskieSpotkaniazAI posłuchaj rozmowy z Mateuszem Chrobokiem, ekspertem od AI i #cybersecurity. Rozmawiamy o obchodzeniu zabezpieczeń modeli językowych (LLM jailbreaking) – jak działa, co oznacza dla bezpieczeństwa i jak sobie z tym radzić. Zastanawiasz się, jak chronić swoje systemy, gdy AI wchodzi do gry? Odkryj skuteczne strategie i przygotuj się na przyszłość!
🎧 Oglądaj na YouTube:
https://www.youtube.com/watch?v=AWC6c-fOcFE
⭐️ Zobacz też:
- Agenty AI - Klucz do automatyzacji programowania https://www.youtube.com/watch?v=tOPKf9XiVXo
- Concierge AI – Czy hotelowi specjaliści stracą pracę? https://www.youtube.com/watch?v=IKzigMVtz8g
- Data Science - uzyskaj przewagę w biznesie dzięki danym https://www.youtube.com/watch?v=cXd7PqzvxDs
Linki do kontaktu z Mateuszem oraz materiały omawiane w odcinku:
🔗 Kontakt:
👉 Strona: https://chrobok.eu/
👉 LinkedIn: https://www.linkedin.com/in/mateuszchrobok/
👉 Instagram: https://instagram.com/mateuszemsi
👉 X: https://x.com/mateuszchrobok
👉 Kanał na YouTube: https://www.youtube.com/@MateuszChrobok
👉 Podcast: https://podcasters.spotify.com/pod/show/mateusz-chrobok
👉 Kurs bezpiecznej komunikacji: https://uczmnie.pl/
👉 Kurs AI_devs - programuj autonomicznych agentów i narzędzia GenAI: https://www.aidevs.pl?ref=r2132
📚 Materiały omawiane w odcinku:
👉 "DAN" and other Jailbreaks: https://gist.github.com/coolaj86/6f4f7b30129b0251f61fa7baaa881516
👉 Automatic Jailbreaking of the Text-to-Image Generative AI Systems: https://arxiv.org/abs/2405.16567
👉 ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs: https://arxiv.org/html/2402.11753v2
📖 Polecane książki:
👉 Pułapki myślenia. O myśleniu szybkim i wolnym - Daniel Kahneman: https://lubimyczytac.pl/ksiazka/5103227/pulapki-myslenia-o-mysleniu-szybkim-i-wolnym
👉 Inteligencja emocjonalna - Daniel Goleman: https://lubimyczytac.pl/ksiazka/15115/inteligencja-emocjonalna
👉 Sztuka podstępu. Łamałem ludzi, nie hasła - Kevin Mitnick, William L. Simon: https://lubimyczytac.pl/ksiazka/4302680/sztuka-podstepu-lamalem-ludzi-nie-hasla
👥 Polecane osoby:
👉 Andrej Karpathy - https://x.com/karpathy
👉 Elon Musk - https://x.com/elonmusk
👉 George Hotz, alias geohot
Rozdziały:
00:00 - Dziś w odcinku
01:35 - Wprowadzenie
02:11 - Mateusz Chrobok
09:31 - Jailbreaking AI – zagrożenia i przykłady
11:41 - Techniki jailbrekowania modeli AI
15:11 - Rola multimodalności i nowe techniki Jailbreaking
22:59 - Time to jailbreak
25:46 - Alignment w modelach AI – czym jest?
28:50 - Konsekwencje alignmentu i fake alignment
33:07 - Zabezpieczanie aplikacji przed jailbreakingiem i atakami w środowisku produkcyjnym
35:37 - Monitoring i narzędzia do ochrony LLM-ów
42:40 - Przyszłe prognozy jailbreakingu modeli LLM
45:15 - Inspiracje i wpływ literatury oraz osób na Mateusza
52:35 - Zakończenie
#BliskieSpotkaniazAI #Podcast #AI #Ai_devs #GPT #ChatGPT #LLM #AiAgents #JailbreakiTekstowe #CzasNaJailbreak #JailbreakMultimodalne #Chainy #AutomatyDoJailbreaku #OptymalizacjaCelów #UważajCzegoChcesz #EmergencjeEmoji #ZakazaneMiejsca #TextualJailbreaks #TimeToJailbreak #MultimodalJailbreaks #Chains #JailbreakMachines #GoalOptimization #AlignmentProblem #CarefulWhatYouWishFor #EmojiEmergences #ForbiddenPlaces #SztucznaInteligencja #SI