自2022年底以来,ChatGPT引领的生成式AI浪潮席卷而来,各式各样的大模型轮番登场,人们的生活似乎也正在被一个又一个与大模型的对话框占满。大模型相关的创业者和创业公司如雨后春笋般你方唱罢我登场,AGI似乎近在咫尺。
从本期开始,我们将开创一个全新的系列:【漫谈AGI】,在这个纷繁复杂而又飞速发展的时代,与您分享我们关于AGI和LLM在业界,学界和不同国界的进展,未来,和可能性。
本期为第一期,我们来一起与您聊聊AI Agent,这个被无数人视为最AI Native的LLM产品方案,又被无数人视为最没有想象力和注定将被下一个KillerApp推下王座的时代眼泪。
大模型的潮水逐渐落去后,AIGC的应用落地成为了新一轮竞赛的首要课题。AI Agent,这个复杂而又符合直觉的赛道,似乎成为了大模型落地最有前景的产品路线。
AI Agent究竟是什么?它背后的LLM的基础能力对他有着怎样的制约?它的落地场景是什么?它擅长什么又不擅长什么?AI Agent应该做的更泛娱乐化和有趣,还是应该效率为王,帮助人们去做有用而又机械的工作?关于LLM的未来,我们应该如何去想象?
欢迎您通过邮箱与我们交流节目中的观点,选题与您自己的看法。
E-Mail: [email protected]
00:59 - Agent概念已存在多年,为什么想聊AI Agent?为什么AI Agent随着LLM又火了?
02:52 - LLM的一些概念科普。什么是训练?什么是微调?什么是推理?什么是Token?什么是Prompt?什么是Serving?
25:24 - 大模型的快慢思考能力是如何来的?从技术角度来看慢思考。
30:01 - AI Agent带来的个性化的廉价化,实际在针对人们一直以来的固有需求制造市场,它是一类全新的商品。LLM加持的AI Agent之所以会被大量用于提供情绪价值,是因为过去没有一种可以大规模生产化的廉价方式去为人们的普遍需求服务。
37:01 - 情感需求这些私人化的个性化很难量化(小红书做社区文化的一些例子)。AI Agent即使使私人个性化廉价化,但如何做好个性化依然是个不小的挑战。
44:48 - 效率型的个性化(如秘书)的廉价化,会降低交流和沟通成本。但很难最终代替人,它更像是人类能力的增强。
48:45 - LLM的Memory和长上下文,对Agent的影响几何?有没有使理解力变得更加廉价化?他的局限性在哪里?
55:30 - 现阶段AI Agent的理解力主要局限在哪?如何让AI Agent获得类似人类的更深层次的理解力?
1:03:23 - 对于AI Agent,用语音交流远比用文本要顺应人的直觉。为什么现有的语音技术在AI Agent应用没有那么广泛?
1:07:57 - 语音处理技术为什么那么贵?(如语音克隆)为什么现在还很难普及?
1:14:27 - 大模型的幻觉的产生,业界如何用技术去解决它?他会限制Agent的发展吗?
1:17:29 - 从人类的角度看LLM的幻觉,以及业界的解决方案和未来的技术路线。(RAG,思维链,知识图谱)
1:22:08 - 大模型是因为没有长期记忆和没有办法做复杂的思考而具有幻觉的吗?如果大模型真的具有了长期记忆和复杂思考后,他会出现更高级的具有创造性的能力吗?
1:26:12 - Scaling Law会让LLM具有创造性和复杂思考的能力吗?Scaling Law更像填鸭式教育,创造性也许不会产生。
1:30:58 - Scaling Law可以解决长期记忆吗?
1:33:14 - Scaling Law提升的是基座模型的能力,算力发展后,也许未来AGI会诞生于Agents之中。00:59 - Agent概念已存在多年,为什么想聊AI Agent?为什么AI Agent随着LLM又火了?
02:52 - LLM的一些概念科普。什么是训练?什么是微调?什么是推理?什么是Token?什么是Prompt?什么是Serving?
08:47 - 什么是微调(Finetuning)?
12:56 - 什么是推理(Inference,On Serving Phase)?此处有些不准确之处,推理是针对训练好的模型,然后对他进行输入,然后他按照既定训练给出输出,这之间发生的过程。该过程中只会激活(Active)少量的Parameters,因此一般认为具有稀疏性。
14:49 - 什么是Prompt?什么是Token?
19:30 - 为什么这波大模型会带来Agent的大爆发?
20:24 - 快慢思考。对于大模型和人类,什么是快思考,什么是慢思考?
25:24 - 大模型的快慢思考能力是如何来的?从技术角度来看慢思考。
27:19 - 有趣的Agent和有用的Agent。
30:01 - AI Agent带来的个性化的廉价化,实际在针对人们一直以来的固有需求制造市场,它是一类全新的商品。LLM加持的AI Agent之所以会被大量用于提供情绪价值,是因为过去没有一种可以大规模生产化的廉价方式去为人们的普遍需求服务。
37:01 - 情感需求这些私人化的个性化很难量化(小红书做社区文化的一些例子)。AI Agent即使使私人个性化廉价化,但如何做好个性化依然是个不小的挑战。
44:48 - 效率型的个性化(如秘书)的廉价化,会降低交流和沟通成本。但很难最终代替人,它更像是人类能力的增强。
48:45 - LLM的Memory和长上下文,对Agent的影响几何?有没有使理解力变得更加廉价化?他的局限性在哪里?
55:30 - 现阶段AI Agent的理解力主要局限在哪?如何让AI Agent获得类似人类的更深层次的理解力?
1:03:23 - 对于AI Agent,用语音交流远比用文本要顺应人的直觉。为什么现有的语音技术在AI Agent应用没有那么广泛?
1:07:57 - 语音处理技术为什么那么贵?(如语音克隆)为什么现在还很难普及?
1:11:55 - 语音技术距离出现真正好用,成本低廉的端到端处理模型,还有一段路要走
1:14:27 - 大模型的幻觉的产生,业界如何用技术去解决它?他会限制Agent的发展吗?
1:17:29 - 从人类的角度看LLM的幻觉,以及业界的解决方案和未来的技术路线。(RAG,思维链,知识图谱)
1:22:08 - 大模型是因为没有长期记忆和没有办法做复杂的思考而具有幻觉的吗?如果大模型真的具有了长期记忆和复杂思考后,他会出现更高级的具有创造性的能力吗?
1:26:12 - Scaling Law会让LLM具有创造性和复杂思考的能力吗?Scaling Law更像填鸭式教育,创造性也许不会产生。
1:30:58 - Scaling Law可以解决长期记忆吗?
1:33:14 - Scaling Law提升的是基座模型的能力,未来算力发展后,也许AGI会诞生于Agents之中。
1:37:20 - Scaling Law在未来依然还有很长路发展。未来也许为了训练模型具有结构化思维,会产生专门的新的文件格式。
1:40:54 - AI Agents综合了工程,认知心理,计算机科学,和哲学的思考,他会推动你思考人类思维的本质。