
Sign up to save your podcasts
Or
ChatGPT często generuje niezgodne z prawda odpowiedzi nazywane halucynacjami. Jest to niezwykle niebezpieczne zjawisko, które może doprowadzić do tragicznych konsekwencji. Przedstawiam przykłady halucynacji i staram się omówić jego przyczyny. Ku przestrodze.
______________________________________
Materiały źródłowe:
[1] https://spectrum.ieee.org/ai-hallucination
[2] https://arxiv.org/abs/2202.03629
[3] https://arxiv.org/abs/2302.10724
________________________________________
🎥 Ten Podcast na YouTube: https://www.youtube.com/JerzySurmaAndrzej
📌 Strona domowa: https://jerzysurma.com
📃 Newsletter: https://jerzysurma.com/index.php/landing-page/
☕️ Możesz mi postawić kawę: https://buycoffee.to/jerzysurma
ChatGPT często generuje niezgodne z prawda odpowiedzi nazywane halucynacjami. Jest to niezwykle niebezpieczne zjawisko, które może doprowadzić do tragicznych konsekwencji. Przedstawiam przykłady halucynacji i staram się omówić jego przyczyny. Ku przestrodze.
______________________________________
Materiały źródłowe:
[1] https://spectrum.ieee.org/ai-hallucination
[2] https://arxiv.org/abs/2202.03629
[3] https://arxiv.org/abs/2302.10724
________________________________________
🎥 Ten Podcast na YouTube: https://www.youtube.com/JerzySurmaAndrzej
📌 Strona domowa: https://jerzysurma.com
📃 Newsletter: https://jerzysurma.com/index.php/landing-page/
☕️ Możesz mi postawić kawę: https://buycoffee.to/jerzysurma