Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 399 episodes available.
May 15, 2025FastVLM:视觉语言模型的高效视觉编码本期节目深入探讨 FastVLM,一种旨在优化视觉语言模型(VLM)中图像编码效率的新模型。我们将讨论 FastVLM 如何通过其核心组件 FastViTHD 实现高分辨率图像的高效处理,显著降低延迟,并与现有技术进行性能比较。...more22minPlay
May 14, 2025深入解析Qwen3:通义千问的最新力作!本期节目,我们将深入探讨通义千问团队最新发布的Qwen3系列大语言模型。从创新的“思考模式”与“非思考模式”统一框架,到惊人的多语言能力和各项基准测试中的SOTA表现,我们将全面解读Qwen3的技术亮点和未来展望。...more17minPlay
May 13, 2025深入探讨 EAGLE-3:通过训练时测试扩展大语言模型推理加速本期节目深入探讨了 EAGLE-3 研究论文,讨论了其如何通过创新的训练时测试技术和多层特征融合,显著提升大语言模型的推理速度,并发现了推理加速的缩放定律。...more13minPlay
May 12, 2025EAGLE: 更高效的 LLM 推理推测采样深入探讨 EAGLE 框架,一种新颖的推测采样技术,旨在解决大型语言模型 (LLM) 推理速度慢的问题。了解 EAGLE 如何通过特征级自回归和解决特征不确定性来显著提高生成速度,同时保持与原始 LLM 完全一致的输出分布。...more14minPlay
May 12, 2025AI Radio FM: 多词元预测 - 训练更快更好的大语言模型本期节目探讨了“多词元预测”这一训练大语言模型的新方法。我们讨论了该方法如何通过同时预测多个未来词元来提高训练效率和模型性能,特别是在代码生成任务上,以及它如何实现更快的推理速度。我们深入分析了其原理、实验结果以及与传统下一个词元预测的区别。...more17minPlay
May 12, 2025加速自回归模型:深入探讨分块并行解码深入探讨 Mitchell Stern、Noam Shazeer 和 Jakob Uszkoreit 提出的分块并行解码技术,了解其如何显著提升 Transformer 等模型的生成速度,同时探讨其在机器翻译和图像超分辨率任务中的应用、效果与权衡。...more15minPlay
May 08, 2025VITA-Audio: 实时语音交互的未来之声本期节目深入探讨 VITA-Audio 技术,一种旨在解决大型语音语言模型高延迟问题的创新方法,特别是其核心的 MCTP 模块和多阶段训练策略,如何实现快速、高效的实时语音交互。...more9minPlay
May 07, 2025TDT模型:联合预测词元与时长的序列转换技术革新深入探讨新颖的TDT(词元与时长转换器)模型架构,它如何通过联合预测词元及其时长,在语音识别、语音翻译和口语理解任务中实现更高的准确性和显著的推理加速。我们将讨论其核心机制、实验结果以及相比传统转换器模型的优势。...more14minPlay
May 07, 2025深入剖析Fast Conformer:高效语音识别的新篇章本期播客将深入探讨Fast Conformer模型,一个在Conformer基础上进行了革新性设计,旨在提升语音处理任务训练和推理效率的新型架构。我们将讨论其核心的下采样机制优化、长音频处理能力、在自动语音识别、语音翻译和口语理解等任务上的卓越表现,以及其惊人的模型扩展性。...more16minPlay
May 06, 2025Whisper: 通过大规模弱监督实现鲁棒语音识别深入探讨OpenAI的Whisper模型,该模型通过在68万小时的多语言、多任务弱监督数据上进行训练,实现了革命性的零样本语音识别和翻译能力,并达到了接近人类水平的鲁棒性。我们将讨论其训练方法、性能表现、关键优势以及未来方向。...more16minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 399 episodes available.