Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 397 episodes available.
November 11, 2025超感知:迈向视频空间智能的未来深入探讨Cambrian-S研究,揭示多模态大模型在视频理解和空间超感知能力上的突破与挑战,以及预测式感知如何引领新范式。...more13minPlay
November 09, 2025Nested Learning: The Illusion of Deep Learning Architectures - 嵌套学习:深度学习架构的幻象欢迎收听AI Radio FM - 科技频道,您的个人生成式AI播客!今天,我们将深入探讨一篇来自谷歌研究的革命性论文,题为“嵌套学习:深度学习架构的幻象”。这篇论文引入了一种突破性的范式,称为嵌套学习(NL),它重新定义了我们理解和设计机器学习模型,特别是大型语言模型的方式。加入我们,一起探索NL如何揭示现有深度学习方法背后的隐藏机制,解释了上下文学习的出现,并为设计具有多层次优化问题的更具表现力的学习算法铺平了道路。我们将讨论其在神经科学上的合理性、其核心贡献,包括深度优化器、自修改泰坦模型以及连续体记忆系统,所有这些最终都催生了充满前景的新架构——HOPE。准备好迎接一场热情、快节奏的讨论,共同揭开AI学习的未来!...more11minPlay
November 09, 2025FM Agent:大型语言模型与进化搜索的协同——迈向通用AI研究代理本期节目深入探讨了FM Agent,一个创新且通用的多智能体框架,它如何巧妙结合LLM推理和大规模进化搜索来解决复杂的现实世界挑战,并在机器学习、组合优化、GPU核函数生成及经典数学问题上取得SOTA成果。...more13minPlay
November 07, 2025AI Radio FM - 智能代理的进化秘籍:ACE上下文工程本期节目深入探讨了“代理式上下文工程”(ACE)框架,该框架通过将大型语言模型的上下文视为不断演进的“策略手册”,有效解决了现有上下文适应方法中存在的“简洁偏见”和“上下文崩溃”两大难题。我们分析了ACE如何通过生成器、反思器和策展器的模块化协作,以及增量更新和“增长-精炼”机制,实现更高效、更具韧性的AI系统自我提升,及其在智能代理和领域特定任务中的显著性能提升和成本节约。...more13minPlay
November 06, 2025AI长时记忆突破:Mem0如何赋能智能体?本期节目深入探讨了Mem0及其图增强版本Mem0^g,这两种革命性的AI记忆架构如何克服大语言模型(LLMs)的固有局限,实现可扩展的长期对话连贯性。我们将分析它们在多轮对话中的卓越表现、计算效率,以及对未来AI智能体发展的深远影响。...more15minPlay
November 05, 2025AI Radio FM - Technology Channel - 探秘智能体上下文工程:LLM的自我进化之路本期节目,我们将深入探讨“智能体上下文工程(Agentic Context Engineering, ACE)”这一创新框架,了解它如何通过演进式上下文,帮助大型语言模型(LLM)实现更高效、更可靠的自我学习和适应。我们将讨论现有方法的局限性,ACE框架的设计理念,以及它在智能体和特定领域任务中取得的显著成效,包括性能提升、成本降低等。...more15minPlay
November 05, 2025AI语境工程:机器如何真正“懂你”?深入探讨AI语境工程的过去、现在与未来,从早期人机交互到智能体时代,揭示机器如何通过理解语境更好地服务人类意图,并展望实现人级甚至超人智能的挑战与机遇。...more23minPlay
November 03, 2025AI Radio FM - Technology Channel: Gated Delta Networks突破Mamba2的秘密本期节目深入探讨了Gated Delta Networks如何通过结合门控机制和Delta更新规则,显著提升线性Transformer模型在长上下文理解和检索任务中的表现,超越Mamba2等现有模型,并为AI领域带来新的突破。我们将一同揭示这项技术的核心创新、卓越性能及其对未来AI发展的深远影响。...more7minPlay
November 03, 2025AI电台FM:DeltaNet的平行化训练——突破线性Transformer性能瓶颈本期节目,我们深入探讨了一篇关于DeltaNet的研究论文。它提出了一种硬件高效的算法,用于并行化DeltaNet在序列长度上的训练,显著提高了其在现代硬件上的训练效率。我们讨论了DeltaNet如何通过Delta更新规则解决传统线性Transformer在关联回忆任务上的不足,并详细剖析了其内存高效的重参数化技术,以及分块并行形式的实现。此外,节目还涵盖了DeltaNet的神经网络架构、特征图与归一化方法,以及与滑动窗口和全局注意力机制结合的混合模型。我们还分析了其在合成基准测试和语言建模任务上的出色表现,包括与Mamba和GLA等领先模型的对比,并探讨了DeltaNet在吞吐量、困惑度和下游任务零样本性能方面的优势。最后,节目还讨论了DeltaNet与状态空间模型及其他线性RNN的比较,以及当前面临的局限性和未来的研究方向,为听众提供了一个全面而深入的理解。...more16minPlay
November 01, 2025Kimi Linear:超越全注意力,构建高效能语言模型的新范式本期节目深入探讨Kimi Linear,一种创新性的混合线性注意力架构。我们将揭示其核心Kimi Delta Attention如何通过精细门控机制,首次在多场景下超越传统全注意力模型,并在性能、效率和长上下文处理能力上实现显著提升。了解Kimi Linear如何为下一代AI智能体和实时交互LLMs铺平道路!...more9minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 397 episodes available.