Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 427 episodes available.
March 12, 2025AI Radio FM - 解密Spark-TTS:高效LLM语音合成新星深入探讨Spark-TTS,一个基于大型语言模型的高效文本转语音系统,具有单流解耦语音令牌。探索BiCodec、VoxBox数据集以及Spark-TTS的创新特性。...more7minPlay
March 11, 2025AI Radio FM - 高效Transformer模型深度解析本期播客深入探讨2020年及以后的高效Transformer模型,包括其架构、优缺点以及在自然语言处理和计算机视觉领域的应用。...more5minPlay
March 11, 2025AI Radio FM - 探索 IndexTTS:工业级可控高效的零样本语音合成系统本期播客深入探讨了 bilibili 发布的 IndexTTS 系统,这是一个基于大型语言模型(LLM)的文本转语音(TTS)系统。我们将讨论其在中文场景下的创新,包括字符-拼音混合建模方法,以及在语音编码方面的优化。我们还将比较 IndexTTS 与现有开源 TTS 系统的性能,并探讨其在实际应用中的优势。...more4minPlay
March 11, 2025AI Radio FM - 动态内存压缩技术本期播客深入探讨了动态内存压缩(DMC)技术,这是一种在推理时在线压缩键值(KV)缓存的方法,旨在提高大型语言模型(LLM)的效率。通过在预训练的LLM(如Llama 2)上应用DMC,可以在不增加额外参数的情况下显著提高推理吞吐量,同时保持原始模型的下游性能。...more5minPlay
March 10, 2025AI Radio FM - 深度学习技术频道本期播客深入探讨了Tree Attention,一种针对GPU集群上长上下文注意力机制的拓扑感知解码方法。通过将自注意力表示为能量函数的梯度,Tree Attention实现了更快的跨设备解码速度、更低的通信量和更少的峰值内存。...more6minPlay
March 10, 2025AI Radio FM - 深入探索 Ring Attention 技术本期播客深入探讨了 Ring Attention with Blockwise Transformers (Ring Attention) 技术,这是一种新的内存高效方法,用于解决 Transformers 在处理长序列时的内存限制问题。我们将讨论其核心概念、优势、实验结果以及对未来 AI 发展的潜在影响。...more6minPlay
March 09, 2025DeepSpeed-MoE:推进专家混合推理和训练,助力下一代人工智能规模本次播客深入探讨了DeepSpeed-MoE,这是一个端到端的专家混合(MoE)训练和推理解决方案,旨在解决大型MoE模型在实际应用中的挑战。讨论涵盖了新颖的MoE架构设计、模型压缩技术以及高度优化的推理系统,这些技术显著降低了MoE模型的推理延迟和成本。...more7minPlay
March 09, 2025MegaBlocks:稀疏混合专家模型的高效训练本次播客讨论了MegaBlocks,这是一个在GPU上高效训练混合专家模型(MoE)的系统。MegaBlocks通过将MoE计算重新表述为块稀疏操作,并开发新的块稀疏GPU内核来有效处理MoE中存在的动态性,解决了现有框架的局限性。...more7minPlay
March 09, 2025AI Radio FM - FasterMoE技术解读本期播客深入探讨FasterMoE,一个用于高效训练大型动态预训练模型(如MoE模型)的分布式系统。我们将讨论其性能模型、动态阴影、智能调度和避免拥塞的专家选择策略。...more5minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 427 episodes available.