(00:00:00) Wstęp
(00:02:00) Niebezpieczne pytanie
(00:03:58) Nieprawdziwe informacje wygenerowane przez AI. Czy można uniknąć halucynowania?
(00:06:42) Czy prawnicy korzystają ze sztucznej inteligencji?
(00:08:08) Najczęstsze błędy popełniane podczas pracy z narzędziami AI
(00:11:13) Pierwsze sprawy sądowe dotyczące wykorzystania sztucznej inteligencji
(00:14:30) Konsekwencje prawne nieautoryzowanego wykorzystania AI w firmie
(00:18:26) Czym jest Shadow AI i jak go uniknąć w organizacji?
(00:21:29) Czy każda firma powinna mieć politykę korzystania z narzędzi AI?
(00:22:57) AI a prawa autorskie. Kto ma prawo do utworu stworzonego przez sztuczną inteligencję?
(00:27:27) Grafika lub treść wygenerowana przez AI - czy trzeba ją oznaczyć?
(00:31:44) Oznaczanie treści AI a region świata. Czy przepisy dotyczą tylko Unii Europejskiej?
(00:32:26) Czy trzeba poinformować klientów i pracowników, że korzystamy z ich danych w pracy z narzędziami AI
(00:33:57) Niebezpieczne pytanie - odpowiedź
(00:35:45) Zakończenie
Shadow AI, halucynacje AI, prawa autorskie i AI Act – w świecie sztucznej inteligencji technologia i prawo ściśle się ze sobą łączą. Gdzie zatem kończy się pomoc asystenta AI, a zaczyna odpowiedzialność karna i cywilna człowieka? Sztuczna inteligencja wspiera nas w codziennej pracy, ale coraz częściej sięgamy po nią bez wiedzy pracodawcy. Z raportu Microsoft wynika, że aż 78% użytkowników rozwiązań AI wdraża je w pracy na własną rękę. A to może rodzić poważne konsekwencje prawne i biznesowe. Zatem jak dziś bezpiecznie korzystać ze sztucznej inteligencji w firmie?
O tym w NIEbezpiecznych rozmowach dyskutujemy z Renatą Zalewską, radczynią prawną z Microsoft Polska, oraz z Agatą Szeligą z Kancelarii Sołtysiński-Kawecki i Szlęzak.
Poruszamy między innymi temat Shadow AI. Wyjaśniamy, dlaczego pracownicy "ukrywają" korzystanie z AI i jakie ryzyka generuje to dla firmy (wycieki danych, naruszenia poufności). Pochylamy się nad prawem autorskim do treści z AI i sprawdzamy, czy prompt to już twórczość. Zastanawiamy się też nad tym, czy klonowanie głosu to naruszenie dóbr osobistych i jak bronić się przed kradzieżą "biometrycznej tożsamości"?
Analizujemy także:
▶️ jakie są konsekwencje prawne korzystania z AI w firmie
▶️ kto odpowiada za błędy AI (np. halucynacje i fałszywe dane)
▶️ do kogo należą prawa autorskie do treści generowanych przez AI
▶️ czy można legalnie używać AI do tworzenia grafik, tekstów i dokumentów
▶️ co zmieni AI Act i jakie kary grożą firmom (nawet do 35 mln euro!)
▶️ czy trzeba oznaczać treści stworzone przez AI (deepfake, content marketing)
▶️ jak chronić dane osobowe i tajemnice w firmach korzystających z AI
Oglądaj nas na YouTube!
🔴 https://www.youtube.com/@IntegriTV-pl
Słuchaj nas także na Apple Podcasts:
🎙️ https://bit.ly/IntegriTV-ApplePodcast
🟢 Weź udział w wydarzeniach dla branży IT!
https://integritypartners.pl/integritv-newsletter/
🟢 Obserwuj nasz kanał IntegriTV i śledź nas w Social Media!
🔵 FACEBOOK https://www.facebook.com/integritvpl
🟣 INSTAGRAM https://www.instagram.com/integri_tv/
⚫ THREADS https://www.threads.net/@integri_tv
🔴 Obserwuj profil Integrity Partners na LinkedIn!
https://www.linkedin.com/company/integrity-partners-cloud-security
DO USŁYSZENIA!