
Sign up to save your podcasts
Or


We used to complain that our models couldn’t explain themselves. Now we have the opposite problem: systems that can generate endless explanations on demand—confident, fluent, and often unearned.
This podcast is about that flip.
We explore what “explanation” should mean in the age of large language models, why hallucination isn’t just a quirky LLM bug, and why the real risk is what happens downstream—when a plausible story gets absorbed by workflows, dashboards, notes, and decisions.
Each episode takes one idea and treats it like an engineering problem:
What do we expect from an explanation?
What makes an explanation grounded versus decorative?
How do structure, constraints, and prediction interact?
When is an answer useful, and when is it just an illusion of understanding?
What evaluation works when the outputs are open-ended?
The goal is not hype and not fear. It’s a clearer language for what these systems are doing—and practical habits for building and using them responsibly, especially in high-stakes domains like healthcare.
اگر قبلاً از این شکایت میکردیم که مدلها “توضیح” نمیدهند، امروز با مشکل برعکس روبهرو هستیم: سیستمهایی که میتوانند بینهایت توضیح تولید کنند—روان، مطمئن، و گاهی بدون پشتوانه.
این پادکست دربارهٔ همین وارونگی هوش مصنوعی است.
در هر قسمت سراغ یک سؤال مشخص میرویم: «توضیح» دقیقاً یعنی چه وقتی خروجیها مولد هستند؟ چرا هالوسینیشن فقط یک باگ بامزه نیست؟ و چرا خطر اصلی، اثر زنجیرهایِ یک روایتِ قانعکننده است که وارد روندها، داشبوردها، یادداشتها و تصمیمها میشود؟
در این مسیر، توضیح را مثل یک مسئلهٔ مهندسی بررسی میکنیم:
از یک “توضیح” دقیقاً چه انتظاری داریم؟
چه چیزی توضیح را “مستند/گراندد” میکند و چه چیزی فقط تزئین است؟
ساختار، قیود، و پیشبینی چطور با هم تلاقی میکنند؟
چه زمانی پاسخ مفید است و چه زمانی فقط «توهمِ فهم»؟
ارزیابی درست وقتی خروجیها باز و متنمحورند چه شکلی است؟
هدف نه تبلیغ است و نه ترساندن. هدف، زبان روشنتر برای فهم این سیستمهاست—و عادتهای عملی برای ساختن و استفادهٔ مسئولانه، مخصوصاً در حوزههای پرریسک مثل سلامت.
https://medium.com/@farzan.jafeh/healthcare-llm-and-cheap-explanation-88254f6326ac
https://beacons.ai/farzanjafeh
By Farzan JafehWe used to complain that our models couldn’t explain themselves. Now we have the opposite problem: systems that can generate endless explanations on demand—confident, fluent, and often unearned.
This podcast is about that flip.
We explore what “explanation” should mean in the age of large language models, why hallucination isn’t just a quirky LLM bug, and why the real risk is what happens downstream—when a plausible story gets absorbed by workflows, dashboards, notes, and decisions.
Each episode takes one idea and treats it like an engineering problem:
What do we expect from an explanation?
What makes an explanation grounded versus decorative?
How do structure, constraints, and prediction interact?
When is an answer useful, and when is it just an illusion of understanding?
What evaluation works when the outputs are open-ended?
The goal is not hype and not fear. It’s a clearer language for what these systems are doing—and practical habits for building and using them responsibly, especially in high-stakes domains like healthcare.
اگر قبلاً از این شکایت میکردیم که مدلها “توضیح” نمیدهند، امروز با مشکل برعکس روبهرو هستیم: سیستمهایی که میتوانند بینهایت توضیح تولید کنند—روان، مطمئن، و گاهی بدون پشتوانه.
این پادکست دربارهٔ همین وارونگی هوش مصنوعی است.
در هر قسمت سراغ یک سؤال مشخص میرویم: «توضیح» دقیقاً یعنی چه وقتی خروجیها مولد هستند؟ چرا هالوسینیشن فقط یک باگ بامزه نیست؟ و چرا خطر اصلی، اثر زنجیرهایِ یک روایتِ قانعکننده است که وارد روندها، داشبوردها، یادداشتها و تصمیمها میشود؟
در این مسیر، توضیح را مثل یک مسئلهٔ مهندسی بررسی میکنیم:
از یک “توضیح” دقیقاً چه انتظاری داریم؟
چه چیزی توضیح را “مستند/گراندد” میکند و چه چیزی فقط تزئین است؟
ساختار، قیود، و پیشبینی چطور با هم تلاقی میکنند؟
چه زمانی پاسخ مفید است و چه زمانی فقط «توهمِ فهم»؟
ارزیابی درست وقتی خروجیها باز و متنمحورند چه شکلی است؟
هدف نه تبلیغ است و نه ترساندن. هدف، زبان روشنتر برای فهم این سیستمهاست—و عادتهای عملی برای ساختن و استفادهٔ مسئولانه، مخصوصاً در حوزههای پرریسک مثل سلامت.
https://medium.com/@farzan.jafeh/healthcare-llm-and-cheap-explanation-88254f6326ac
https://beacons.ai/farzanjafeh