Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 399 episodes available.
March 12, 2025XTTS:大规模多语言零样本语音合成模型本播客讨论了XTTS,一个在16种语言中实现最先进结果的大规模多语言零样本语音合成模型。XTTS是第一个支持低/中资源语言的大规模多语言ZS-TTS模型,并且可以在不需要并行训练数据集的情况下执行跨语言ZS-TTS。...more4minPlay
March 12, 2025AI Radio FM - 探索TorToise语音合成技术本期播客深入讨论James Betker的论文《Better speech synthesis through scaling》,重点介绍TorToise,一种富有表现力的多语音文本转语音系统。...more6minPlay
March 12, 2025AI Radio FM - 解密Spark-TTS:高效LLM语音合成新星深入探讨Spark-TTS,一个基于大型语言模型的高效文本转语音系统,具有单流解耦语音令牌。探索BiCodec、VoxBox数据集以及Spark-TTS的创新特性。...more7minPlay
March 11, 2025AI Radio FM - 高效Transformer模型深度解析本期播客深入探讨2020年及以后的高效Transformer模型,包括其架构、优缺点以及在自然语言处理和计算机视觉领域的应用。...more5minPlay
March 11, 2025AI Radio FM - 探索 IndexTTS:工业级可控高效的零样本语音合成系统本期播客深入探讨了 bilibili 发布的 IndexTTS 系统,这是一个基于大型语言模型(LLM)的文本转语音(TTS)系统。我们将讨论其在中文场景下的创新,包括字符-拼音混合建模方法,以及在语音编码方面的优化。我们还将比较 IndexTTS 与现有开源 TTS 系统的性能,并探讨其在实际应用中的优势。...more4minPlay
March 11, 2025AI Radio FM - 动态内存压缩技术本期播客深入探讨了动态内存压缩(DMC)技术,这是一种在推理时在线压缩键值(KV)缓存的方法,旨在提高大型语言模型(LLM)的效率。通过在预训练的LLM(如Llama 2)上应用DMC,可以在不增加额外参数的情况下显著提高推理吞吐量,同时保持原始模型的下游性能。...more5minPlay
March 10, 2025AI Radio FM - 深度学习技术频道本期播客深入探讨了Tree Attention,一种针对GPU集群上长上下文注意力机制的拓扑感知解码方法。通过将自注意力表示为能量函数的梯度,Tree Attention实现了更快的跨设备解码速度、更低的通信量和更少的峰值内存。...more6minPlay
March 10, 2025AI Radio FM - 深入探索 Ring Attention 技术本期播客深入探讨了 Ring Attention with Blockwise Transformers (Ring Attention) 技术,这是一种新的内存高效方法,用于解决 Transformers 在处理长序列时的内存限制问题。我们将讨论其核心概念、优势、实验结果以及对未来 AI 发展的潜在影响。...more6minPlay
March 09, 2025DeepSpeed-MoE:推进专家混合推理和训练,助力下一代人工智能规模本次播客深入探讨了DeepSpeed-MoE,这是一个端到端的专家混合(MoE)训练和推理解决方案,旨在解决大型MoE模型在实际应用中的挑战。讨论涵盖了新颖的MoE架构设计、模型压缩技术以及高度优化的推理系统,这些技术显著降低了MoE模型的推理延迟和成本。...more7minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 399 episodes available.