Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 413 episodes available.
March 10, 2025AI Radio FM - 深度学习技术频道本期播客深入探讨了Tree Attention,一种针对GPU集群上长上下文注意力机制的拓扑感知解码方法。通过将自注意力表示为能量函数的梯度,Tree Attention实现了更快的跨设备解码速度、更低的通信量和更少的峰值内存。...more6minPlay
March 10, 2025AI Radio FM - 深入探索 Ring Attention 技术本期播客深入探讨了 Ring Attention with Blockwise Transformers (Ring Attention) 技术,这是一种新的内存高效方法,用于解决 Transformers 在处理长序列时的内存限制问题。我们将讨论其核心概念、优势、实验结果以及对未来 AI 发展的潜在影响。...more6minPlay
March 09, 2025DeepSpeed-MoE:推进专家混合推理和训练,助力下一代人工智能规模本次播客深入探讨了DeepSpeed-MoE,这是一个端到端的专家混合(MoE)训练和推理解决方案,旨在解决大型MoE模型在实际应用中的挑战。讨论涵盖了新颖的MoE架构设计、模型压缩技术以及高度优化的推理系统,这些技术显著降低了MoE模型的推理延迟和成本。...more7minPlay
March 09, 2025MegaBlocks:稀疏混合专家模型的高效训练本次播客讨论了MegaBlocks,这是一个在GPU上高效训练混合专家模型(MoE)的系统。MegaBlocks通过将MoE计算重新表述为块稀疏操作,并开发新的块稀疏GPU内核来有效处理MoE中存在的动态性,解决了现有框架的局限性。...more7minPlay
March 09, 2025AI Radio FM - FasterMoE技术解读本期播客深入探讨FasterMoE,一个用于高效训练大型动态预训练模型(如MoE模型)的分布式系统。我们将讨论其性能模型、动态阴影、智能调度和避免拥塞的专家选择策略。...more5minPlay
March 09, 2025FastMoE:稀疏门控混合专家模型训练系统本期播客深入探讨FastMoE,一个基于PyTorch的分布式混合专家(MoE)训练系统。FastMoE旨在通过算法和系统协同设计,实现高效的万亿级参数语言模型训练。它提供了一个分层接口,既能灵活设计模型,又能轻松适应Transformer-XL和Megatron-LM等不同应用。FastMoE通过高性能加速技术优化训练速度,并支持跨多个节点和GPU放置专家,从而实现专家数量随GPU数量线性扩展。...more3minPlay
March 07, 2025GPipe深度学习模型并行化技术本期播客深入探讨GPipe,一种用于训练大型神经网络的可扩展模型并行库。通过案例分析和技术讲解,揭示GPipe如何通过批次拆分流水线并行算法实现高效的模型扩展。...more4minPlay
March 07, 2025AI Radio FM - 深度学习框架OneFlow本期播客深入探讨了新型分布式深度学习框架OneFlow,该框架基于SBP抽象和Actor模型,旨在简化和优化大规模深度神经网络模型的训练。...more6minPlay
March 07, 2025AI Radio FM - 深度学习的Pathways本期播客深入探讨了Pathways,这是一个为分布式机器学习设计的新系统,旨在支持未来的ML工作负载,同时保持当前模型的性能。...more7minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 413 episodes available.