AI课程:https://www.ai-builders.com
64分钟完整版:https://youtu.be/zAzsDHpR4xs
文字总结:https://www.superlinear.academy/c/ai-resources/2025-10-24-ai
腾讯新闻报道:https://view.inews.qq.com/wxn/20251030A05AJU00?openid=o04IBAJRCPyDLXQ1Moj4TQQRIYbM
这次访谈,田博士科普了三个非常深刻的道理:
1. 模型的表征和人类mental model的重要
2. 模型的顿悟是如何发生的
3. 在损失函数之上,AI还在(隐含地)追求优雅
AI 究竟是在“记忆”还是在“泛化”?我们常说的“顿悟”时刻,在神经网络中是如何发生的?田渊栋博士(https://yuandong-tian.com/ ),将为我们揭示这些问题的答案。
在这期视频中,我们将探讨:
* 为什么说研究员的“直觉”比算力更宝贵?
* AI 如何像金庸武侠里的高手一样,在大量“背诵”后突然“顿悟”?
* “Scaling Law”会是通往 AGI 的唯一路径吗?是否存在天花板更高的研究范式?
* Loss Function 竟然只是一个“代理”?那 AI 学习的真正目标是什么?
* 如何与 GPT-5 这样的 AI “同事”一起做研究,极大地提升科研效率?
如果你对 AI 的学习本质、大模型的未来以及人类研究员的价值感兴趣,这期视频不容错过。
00:00:00 - 开场:在Meta工作十年后被裁
00:01:14 - 为何要公开谈论裁员:为团队发声
00:02:51 - 澄清团队贡献:我们解决了关键问题
00:04:10 - 研究员的价值:从稀疏数据中获得洞见 (Insight)
00:06:11 - 什么是研究的“品味”和“直觉”?
00:08:14 - “顿悟”(Grokking):AI如何从记忆到理解?
00:10:55 - “读书百遍,其义自现”:表征学习的飞跃
00:12:05 - 压缩与泛化:更优雅的理论总是胜出
00:13:05 - 黑箱 vs. 白箱:Scaling Law 是唯一答案吗?
00:15:54 - 我们该如何学习 AI 的学习方式?
00:17:38 - 数据瓶颈下,理解模型内部机制的意义
00:18:41 - AI 的产出,究竟是记忆还是泛化?
00:20:41 - “顿悟”的内在机制:优化 landscape 上的山峰之争
00:23:10 - 惊人观点:Loss Function 只是一个“代理”
00:27:40 - 找到个人兴趣与行业应用的结合点
00:32:05 - 未来展望:与 AI "同事" 一起做研究
00:36:05 - 人类研究员的核心价值:注入关键的 Insight