Bliskie Spotkania z AI

#4 Mateusz Chrobok - jak obchodzić zabezpieczenia #AI i chronić aplikacje z sztuczną inteligencją


Listen Later

Czy potrafisz przechytrzyć AI? 🤖 Odkryj, jak eksperci obchodzą zabezpieczenia modeli LLM i jak możesz chronić przed tym swoje aplikacje na prodzie! 🚀


W najnowszym odcinku podcastu #BliskieSpotkaniazAI posłuchaj rozmowy z Mateuszem Chrobokiem, ekspertem od AI i #cybersecurity. Rozmawiamy o obchodzeniu zabezpieczeń modeli językowych (LLM jailbreaking) – jak działa, co oznacza dla bezpieczeństwa i jak sobie z tym radzić. Zastanawiasz się, jak chronić swoje systemy, gdy AI wchodzi do gry? Odkryj skuteczne strategie i przygotuj się na przyszłość!


🎧 Oglądaj na YouTube:

https://www.youtube.com/watch?v=AWC6c-fOcFE


⭐️ Zobacz też:


- Agenty AI - Klucz do automatyzacji programowania https://www.youtube.com/watch?v=tOPKf9XiVXo

- Concierge AI – Czy hotelowi specjaliści stracą pracę? https://www.youtube.com/watch?v=IKzigMVtz8g

- Data Science - uzyskaj przewagę w biznesie dzięki danym https://www.youtube.com/watch?v=cXd7PqzvxDs


Linki do kontaktu z Mateuszem oraz materiały omawiane w odcinku:


🔗 Kontakt:


👉 Strona: https://chrobok.eu/

👉 LinkedIn: https://www.linkedin.com/in/mateuszchrobok/

👉 Instagram: https://instagram.com/mateuszemsi

👉 X: https://x.com/mateuszchrobok

👉 Kanał na YouTube: https://www.youtube.com/@MateuszChrobok

👉 Podcast: https://podcasters.spotify.com/pod/show/mateusz-chrobok

👉 Kurs bezpiecznej komunikacji: https://uczmnie.pl/

👉 Kurs AI_devs - programuj autonomicznych agentów i narzędzia GenAI: https://www.aidevs.pl?ref=r2132


📚 Materiały omawiane w odcinku:


👉 "DAN" and other Jailbreaks: https://gist.github.com/coolaj86/6f4f7b30129b0251f61fa7baaa881516

👉 Automatic Jailbreaking of the Text-to-Image Generative AI Systems: https://arxiv.org/abs/2405.16567

👉 ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs: https://arxiv.org/html/2402.11753v2


📖 Polecane książki:


👉 Pułapki myślenia. O myśleniu szybkim i wolnym - Daniel Kahneman: https://lubimyczytac.pl/ksiazka/5103227/pulapki-myslenia-o-mysleniu-szybkim-i-wolnym

👉 Inteligencja emocjonalna - Daniel Goleman: https://lubimyczytac.pl/ksiazka/15115/inteligencja-emocjonalna

👉 Sztuka podstępu. Łamałem ludzi, nie hasła - Kevin Mitnick, William L. Simon: https://lubimyczytac.pl/ksiazka/4302680/sztuka-podstepu-lamalem-ludzi-nie-hasla


👥 Polecane osoby:


👉 Andrej Karpathy - https://x.com/karpathy

👉 Elon Musk - https://x.com/elonmusk

👉 George Hotz, alias geohot


Rozdziały:

00:00 - Dziś w odcinku

01:35 - Wprowadzenie

02:11 - Mateusz Chrobok

09:31 - Jailbreaking AI – zagrożenia i przykłady

11:41 - Techniki jailbrekowania modeli AI

15:11 - Rola multimodalności i nowe techniki Jailbreaking

22:59 - Time to jailbreak

25:46 - Alignment w modelach AI – czym jest?

28:50 - Konsekwencje alignmentu i fake alignment

33:07 - Zabezpieczanie aplikacji przed jailbreakingiem i atakami w środowisku produkcyjnym

35:37 - Monitoring i narzędzia do ochrony LLM-ów

42:40 - Przyszłe prognozy jailbreakingu modeli LLM

45:15 - Inspiracje i wpływ literatury oraz osób na Mateusza

52:35 - Zakończenie


#BliskieSpotkaniazAI #Podcast #AI #Ai_devs #GPT #ChatGPT #LLM #AiAgents #JailbreakiTekstowe #CzasNaJailbreak #JailbreakMultimodalne #Chainy #AutomatyDoJailbreaku #OptymalizacjaCelów #UważajCzegoChcesz #EmergencjeEmoji #ZakazaneMiejsca #TextualJailbreaks #TimeToJailbreak #MultimodalJailbreaks #Chains #JailbreakMachines #GoalOptimization #AlignmentProblem #CarefulWhatYouWishFor #EmojiEmergences #ForbiddenPlaces #SztucznaInteligencja #SI

...more
View all episodesView all episodes
Download on the App Store

Bliskie Spotkania z AIBy Krzysztof Tutak