Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 413 episodes available.
June 01, 2025深入探讨小米MiMo-VL:下一代视觉语言模型本期AI广播FM技术频道,我们与技术专家weedge一同深入探讨小米最新发布的MiMo-VL技术报告,解析其强大的视觉理解、多模态推理能力以及创新的训练方法。...more13minPlay
June 01, 2025MiMo-7B:解锁语言模型的推理潜力本期节目深入探讨了MiMo-7B模型,一个专为推理任务而生的大语言模型。我们讨论了其从预训练到后训练的全方位优化,包括创新的数据处理方法、模型架构设计、以及强化学习策略,揭示了MiMo-7B在数学、代码和通用推理任务上超越同类甚至更大规模模型的卓越表现。...more18minPlay
May 31, 2025深入探讨Atlas:学习在测试时优化记忆上下文本期节目,我们将深入探讨名为“Atlas”的最新研究,它提出了一种新颖的方法来优化序列模型中的长期记忆。我们将讨论当前模型的局限性以及Atlas如何通过其创新的记忆模块和学习规则来解决这些问题。...more16minPlay
May 30, 2025深入探讨Linear-MoE:线性序列建模与专家混合的结合本期AI Radio FM科技频道,我们与技术专家weedge一起,深入探讨了Linear-MoE这一创新的大规模模型架构。我们将讨论其核心理念、系统构成、训练效率以及它如何结合线性序列建模(LSM)和专家混合(MoE)的优势,为下一代基础模型带来的潜力与挑战。...more14minPlay
May 26, 2025BAGEL模型:统一多模态预训练的新里程碑本期节目深入探讨了BAGEL模型,这是一个开源的基础模型,通过在万亿级多模态交错数据上进行预训练,展现了在复杂多模态推理方面的惊人新兴能力。我们将讨论其统一理解与生成的设计、数据策略、训练细节以及其在各项基准测试中的卓越表现。...more13minPlay
May 25, 2025深入探讨LoRA:大型语言模型的低秩适应技术本期播客将深入探讨LoRA(Low-Rank Adaptation)技术,一种用于高效适应大型语言模型的新方法。我们将讨论LoRA如何解决全量微调的挑战,其核心原理、显著优势以及在各种模型和任务上的表现。...more11minPlay
May 23, 2025深入剖析Phi-4推理:微软的新一代小型推理语言模型本期播客将深入探讨微软最新发布的Phi-4-reasoning和Phi-4-reasoning-plus技术报告。我们将讨论这些140亿参数模型的训练方法、卓越性能、数据管理策略以及它们在复杂推理任务中的应用前景和面临的挑战。...more12minPlay
May 23, 2025探索小型推理语言模型的极限:Phi-4-Mini-Reasoning 的数学能力本期播客深入探讨了微软的研究论文“Phi-4-Mini-Reasoning:探索小型推理语言模型在数学领域的极限”。我们讨论了如何通过一个创新的四步训练方法,使一个仅有38亿参数的小型语言模型 Phi-4-Mini 在数学推理任务上超越更大的模型。...more9minPlay
May 23, 2025AI Radio FM - 科技频道:深入探讨 Phi-4-Mini 与 Phi-4-Multimodal本期节目,我们深入剖析微软最新推出的紧凑型多模态语言模型 Phi-4-Mini 和 Phi-4-Multimodal。我们将探讨它们的创新架构、训练数据、卓越性能以及“混合LoRA”技术的奥秘,以及它们在语言、视觉、语音和音频处理方面的突破。...more18minPlay
May 22, 2025深入探讨神经网络的量化与训练:实现高效纯整数算术推理本期播客深入探讨一篇关于神经网络量化方案的论文,该方案允许仅使用整数算术进行推理,从而在移动设备上实现更高效的深度学习模型。我们将讨论其核心技术、训练方法以及在图像分类和目标检测等任务上的显著性能提升。...more13minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 413 episodes available.