00:00 简介
03:26 嘉宾自我介绍:俞舟教授与Arklex公司
04:45 研究背景:从NLP到AI Agents
07:18 核心问题:AI Agents与NLP的现状
08:02 观点:大语言模型(LLM)是NLP的机遇而非终结
12:15 探讨:LLM时代,NLP研究还有什么价值?
15:11 案例分析:DeepSeek的创新是工程还是研究?
18:10 何为“新颖”:Transformer与GPT-3的启示
19:47 深入:大语言模型(LLM)“涌现”能力的原因
21:44 通俗解释:为什么大语言模型(LLM)能工作?
22:28 待续:研究与实际落地的差异
完整版91分钟:哥大AI教授,Arklex.ai创始人:学术业界结合,Agents前沿应用,技术创业的经验教训|俞舟访谈
https://youtu.be/A2dE2wfzOgY
本期访谈邀请了哥伦比亚大学教授、Arklex公司创始人俞舟。俞舟教授分享了他从早期研究自然语言处理(NLP)到创立专注于AI Agent Orchestration(AI代理协调层)公司的历程。访谈深入探讨了在大语言模型(LLM)兴起后,NLP领域的发展现状、研究方向的转变、AI Agents领域的机遇与挑战,以及对“研究新颖性”和LLM“涌现能力”等核心概念的理解。
核心亮点提炼:
嘉宾背景: 俞舟教授拥有深厚的NLP研究背景(浙大、CMU博士),现为哥大教授并创办了AI公司Arklex,专注于AI Agent的协调层技术(开源与企业版)。
NLP未死论: 俞舟教授认为LLM的出现极大地推动了NLP领域的发展,使其更受欢迎、资源更丰富,吸引了顶尖人才,为研究者(包括他自己)带来了更多机遇(如教职增加、经费易得),而非终结了这个领域。
研究价值转变: 即使很多基础任务看似被LLM解决,但研究并未停止。重心转向了如何让模型更高效、更鲁棒、成本更低、处理边缘案例、进行多模态融合等,以及探索更前瞻性的应用(如他早期研究的多模态Agent)。LLM/API降低了研究门槛,让研究者能更快探索更复杂的问题。
研究的多样性: 研究不仅包括提出全新算法(如Transformer),也包括优化效率、降低成本(如DeepSeek在架构上的贡献)以及巧妙地组合现有技术并开源分享,推动整个社区进步。
LLM涌现解密: LLM的“涌现”能力(如GPT-3的In-Context Learning)被认为是“量变引起质变”的结果。俞舟团队的研究发现,预训练数据中存在的“平行结构”(如语言中的重复模式)是模型学会In-Context Learning的关键。
LLM工作原理简述: 大模型因其巨大的容量,在学习海量数据和足够监督信号后,能够进行知识的泛化和外推,而不仅仅是复制,从而展现出强大的能力。
会员3美元一个月,提供很多超值内容:
1. 加入一次,即可获取会员社区终身资格:www.superlinear.academy
2. 每周更新会员专属视频
3. 很多视频都比公开视频更加深度
4. 访谈视频一般在会员专属发完整版,一般是公开版2、3倍的内容,覆盖更多营养
5. 还有一些专属内容,比如关于如何打两份工攒四份钱。嘉宾并不想公开发表,但是又很有分享价值。就通过会员内容来有门槛地分享
总之,很建议加入一个月试试看,可以从这个playlist开始:https://youtube.com/playlist?list=PLO_DkCSmTKMODESa8MF8Q67ZwkqgsH_UP&si=zixsdYH4d3wHRTdy
除此以外,我还有一个关于如何用GenAI提升自己生产力,抓住时代机会的课程。是Maven.com上销量最高、评分最高的课程之一。
- Cohort based课程地址:https://www.maven.com/kedaibiao/genai
- Self paced课程地址:https://www.superlinear.academy/c/ai/