Macro Lab 總經實驗室

EP19 | AI 也有刻板印象?預測結果的偏誤是什麼?


Listen Later


Macro Lab|總經實驗室


EP19 | AI 也有刻板印象?預測結果的偏誤是什麼?

本集《Macro Lab 總經實驗室》帶你直擊 AI「黑盒子」 中的偏見陷阱──從招募工具篩掉女性履歷,到預測式警務強化種族歧視,再到金融、醫療決策的結構性不公。以經濟學視角拆解 資料收集 → 標註 → 模型訓練 → 部署回饋 四大階段的失誤點,告訴你偏見如何被放大成資源錯置與社會不平等。


Chin 帶你深入演算法治理核心思考:在 AI 普及時代,如何用制度與教育守住「公平」與「效率」的雙重底線?

1️⃣ 資料偏誤 × 招募歧視 [2:19]

  • 選擇偏差讓女性工程師履歷被大幅剔除,揭露資料樣本失衡的威力。

  • 2️⃣ 預測式警務 × 回饋迴圈 [3:17]
    • 歷史逮捕數據 → 更多警力進駐少數族裔社區 → 再度拉高逮捕率,形成惡性循環。

    • 3️⃣ 模型訓練 × 性別刻板 [5:44]
      • 最大化平均正確率犧牲少數族群精準度,Amazon 招募工具最終下架成前車之鑑。

      • 4️⃣ 部署監控 × 公平治理 [7:45]
        • 跨領域團隊、演算法稽核、可解釋 AI 與教育革新,打造「靈活監管 + 產業自律 + 公民監督」三重防線。


        • 🎯 為何一定要聽?
          • 一次掌握 AI 偏見的成因與真實案例,快速建立風險雷達。
          • 宏觀洞察 :從經濟效率到所得分配,演算法偏見如何侵蝕整體生產力。
          • 實務對策 :資料多元化、Fairness Metrics、Model Cards、Explainable AI 全攻略。
          • 關鍵詞速查 :Selection Bias、Feedback Loop、Algorithm Audit、Explainable AI、Governance Sandbox。


          • 🔔 立即收聽 → 訂閱 Macro Lab,掌握 科技 × 經濟 × 社會 交匯最前線!

            👍 按讚+分享,加入 IG @amateur_economists | Medium|每天早上更新 通勤咖啡 10 分鐘,洞悉世界動能。


            Macro Lab: Macroeconomics decoded for builders and doers—because the big picture drives better business.

            --
            Hosting provided by SoundOn

            ...more
            View all episodesView all episodes
            Download on the App Store

            Macro Lab 總經實驗室By Amateur Economist, Chin