
Sign up to save your podcasts
Or
Sztuczna inteligencja zaskakuje błyskotliwymi odpowiedziami, ale czasem również... bezczelnym zmyślaniem. Dlaczego modele językowe potrafią z pełnym przekonaniem generować nieprawdziwe informacje? Co sprawia, że brzmią wiarygodnie, mimo że wcale takie nie są?
Jarosław Kuźniar przygląda się zjawisku halucynacji AI – błędów, które nie są skutkiem awarii, ale naturalnym efektem działania algorytmów. W tym odcinku Technologicznie poznasz kulisy pracy z modelami językowymi, które mogą być genialnymi asystentami, ale też niebezpiecznymi źródłami dezinformacji.
Dlaczego warto wiedzieć, kiedy AI zmyśla? Co robią badacze, by ograniczyć ten problem? I dlaczego ostateczna odpowiedzialność za prawdę nadal spoczywa na człowieku?
Z tego odcinka dowiesz się:
- Czym są halucynacje AI i dlaczego się pojawiają?
- Jakie cztery główne przyczyny odpowiadają za zmyślenia modeli językowych?
- Dlaczego sztuczna inteligencja brzmi pewnie, nawet gdy mija się z prawdą?
- Jakie są metody ograniczania halucynacji, takie jak RAG i RLHF?
- Dlaczego to człowiek nadal musi weryfikować prawdziwość informacji generowanych przez AI?
Masz pytanie do ekspertów? Możesz je zadać tutaj: https://tally.so/r/npJBAV
W aplikacji Voice House Club m.in.:
✔️ Wszystkie formaty w jednym miejscu.
✔️ Możesz przeczytać lub posłuchać.
✔️ Transkrypcje odcinków serii In Brief z dodatkowymi materiałami wideo.
Słuchaj w Voice House Club: https://bit.ly/Dolacz_do_VHC
📩 Chcesz nagrać z nami podcast lub nawiązać współpracę? Napisz: [email protected]
Sztuczna inteligencja zaskakuje błyskotliwymi odpowiedziami, ale czasem również... bezczelnym zmyślaniem. Dlaczego modele językowe potrafią z pełnym przekonaniem generować nieprawdziwe informacje? Co sprawia, że brzmią wiarygodnie, mimo że wcale takie nie są?
Jarosław Kuźniar przygląda się zjawisku halucynacji AI – błędów, które nie są skutkiem awarii, ale naturalnym efektem działania algorytmów. W tym odcinku Technologicznie poznasz kulisy pracy z modelami językowymi, które mogą być genialnymi asystentami, ale też niebezpiecznymi źródłami dezinformacji.
Dlaczego warto wiedzieć, kiedy AI zmyśla? Co robią badacze, by ograniczyć ten problem? I dlaczego ostateczna odpowiedzialność za prawdę nadal spoczywa na człowieku?
Z tego odcinka dowiesz się:
- Czym są halucynacje AI i dlaczego się pojawiają?
- Jakie cztery główne przyczyny odpowiadają za zmyślenia modeli językowych?
- Dlaczego sztuczna inteligencja brzmi pewnie, nawet gdy mija się z prawdą?
- Jakie są metody ograniczania halucynacji, takie jak RAG i RLHF?
- Dlaczego to człowiek nadal musi weryfikować prawdziwość informacji generowanych przez AI?
Masz pytanie do ekspertów? Możesz je zadać tutaj: https://tally.so/r/npJBAV
W aplikacji Voice House Club m.in.:
✔️ Wszystkie formaty w jednym miejscu.
✔️ Możesz przeczytać lub posłuchać.
✔️ Transkrypcje odcinków serii In Brief z dodatkowymi materiałami wideo.
Słuchaj w Voice House Club: https://bit.ly/Dolacz_do_VHC
📩 Chcesz nagrać z nami podcast lub nawiązać współpracę? Napisz: [email protected]
11 Listeners
37 Listeners
40 Listeners
39 Listeners
6 Listeners
38 Listeners
4 Listeners
10 Listeners
3 Listeners
8 Listeners
54 Listeners
3 Listeners
31 Listeners
0 Listeners
4 Listeners
0 Listeners
0 Listeners
5 Listeners
18 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
4 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
4 Listeners
0 Listeners