
Sign up to save your podcasts
Or
ChatGPT-4, Claude, LLaMA – narzędzia tworzone do analizy języka coraz częściej stają się cyfrowymi terapeutami. Zwierzamy się im, wpuszczamy do najbardziej intymnych obszarów życia.
W tym odcinku programu Technologicznie Jarosław Kuźniar sprawdza, jak wygląda terapia prowadzona przez sztuczną inteligencję – od chatbotów dostrojonych do protokołów CBT, przez aplikacje budujące cyfrowe przyjaźnie, po eksperymenty z interfejsami mózg–komputer. Gdzie kończy się pomoc technologii, a zaczyna ryzyko jej nadużycia?
Z tego odcinka podcastu Technologicznie dowiesz się:
- Jak trenowane są algorytmy „empatycznej” AI w zdrowiu psychicznym
- Dlaczego systemy rozpoznawania kryzysów w tekście mogą się mylić – i jakie to ma konsekwencje
- W jaki sposób aplikacje uczą się osobowości użytkownika
- Jakie są ograniczenia pamięci modeli językowych w kontekście terapii
- Czy przyszłość wsparcia psychicznego to hybryda człowieka i AI – i jak wpłynie na nasze relacje.
Masz pytanie do ekspertów? Możesz je zadać tutaj: https://tally.so/r/npJBAV
W aplikacji Voice House Club m.in.:
✔️ Wszystkie formaty w jednym miejscu.
✔️ Możesz przeczytać lub posłuchać.
✔️ Transkrypcje odcinków serii In Brief z dodatkowymi materiałami wideo.
Słuchaj w Voice House Club: https://bit.ly/Dolacz_do_VHC
📩 Chcesz nagrać z nami podcast lub nawiązać współpracę? Napisz: [email protected]
ChatGPT-4, Claude, LLaMA – narzędzia tworzone do analizy języka coraz częściej stają się cyfrowymi terapeutami. Zwierzamy się im, wpuszczamy do najbardziej intymnych obszarów życia.
W tym odcinku programu Technologicznie Jarosław Kuźniar sprawdza, jak wygląda terapia prowadzona przez sztuczną inteligencję – od chatbotów dostrojonych do protokołów CBT, przez aplikacje budujące cyfrowe przyjaźnie, po eksperymenty z interfejsami mózg–komputer. Gdzie kończy się pomoc technologii, a zaczyna ryzyko jej nadużycia?
Z tego odcinka podcastu Technologicznie dowiesz się:
- Jak trenowane są algorytmy „empatycznej” AI w zdrowiu psychicznym
- Dlaczego systemy rozpoznawania kryzysów w tekście mogą się mylić – i jakie to ma konsekwencje
- W jaki sposób aplikacje uczą się osobowości użytkownika
- Jakie są ograniczenia pamięci modeli językowych w kontekście terapii
- Czy przyszłość wsparcia psychicznego to hybryda człowieka i AI – i jak wpłynie na nasze relacje.
Masz pytanie do ekspertów? Możesz je zadać tutaj: https://tally.so/r/npJBAV
W aplikacji Voice House Club m.in.:
✔️ Wszystkie formaty w jednym miejscu.
✔️ Możesz przeczytać lub posłuchać.
✔️ Transkrypcje odcinków serii In Brief z dodatkowymi materiałami wideo.
Słuchaj w Voice House Club: https://bit.ly/Dolacz_do_VHC
📩 Chcesz nagrać z nami podcast lub nawiązać współpracę? Napisz: [email protected]
11 Listeners
37 Listeners
39 Listeners
39 Listeners
6 Listeners
38 Listeners
4 Listeners
9 Listeners
3 Listeners
8 Listeners
54 Listeners
3 Listeners
31 Listeners
0 Listeners
4 Listeners
0 Listeners
0 Listeners
5 Listeners
18 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
4 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
4 Listeners
0 Listeners