Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 399 episodes available.
March 09, 2025MegaBlocks:稀疏混合专家模型的高效训练本次播客讨论了MegaBlocks,这是一个在GPU上高效训练混合专家模型(MoE)的系统。MegaBlocks通过将MoE计算重新表述为块稀疏操作,并开发新的块稀疏GPU内核来有效处理MoE中存在的动态性,解决了现有框架的局限性。...more7minPlay
March 09, 2025AI Radio FM - FasterMoE技术解读本期播客深入探讨FasterMoE,一个用于高效训练大型动态预训练模型(如MoE模型)的分布式系统。我们将讨论其性能模型、动态阴影、智能调度和避免拥塞的专家选择策略。...more5minPlay
March 09, 2025FastMoE:稀疏门控混合专家模型训练系统本期播客深入探讨FastMoE,一个基于PyTorch的分布式混合专家(MoE)训练系统。FastMoE旨在通过算法和系统协同设计,实现高效的万亿级参数语言模型训练。它提供了一个分层接口,既能灵活设计模型,又能轻松适应Transformer-XL和Megatron-LM等不同应用。FastMoE通过高性能加速技术优化训练速度,并支持跨多个节点和GPU放置专家,从而实现专家数量随GPU数量线性扩展。...more3minPlay
March 07, 2025GPipe深度学习模型并行化技术本期播客深入探讨GPipe,一种用于训练大型神经网络的可扩展模型并行库。通过案例分析和技术讲解,揭示GPipe如何通过批次拆分流水线并行算法实现高效的模型扩展。...more4minPlay
March 07, 2025AI Radio FM - 深度学习框架OneFlow本期播客深入探讨了新型分布式深度学习框架OneFlow,该框架基于SBP抽象和Actor模型,旨在简化和优化大规模深度神经网络模型的训练。...more6minPlay
March 07, 2025AI Radio FM - 深度学习的Pathways本期播客深入探讨了Pathways,这是一个为分布式机器学习设计的新系统,旨在支持未来的ML工作负载,同时保持当前模型的性能。...more7minPlay
March 07, 2025PaLM:利用 Pathways 进行语言模型规模化本次播客深入探讨了谷歌最新的大型语言模型 PaLM,重点介绍了其架构、训练过程、在各种任务上的突破性能力,以及相关的偏见和伦理考量。...more5minPlay
March 06, 2025ZeRO: 内存优化实现万亿参数模型训练本次播客深入探讨了微软提出的ZeRO技术,该技术通过消除数据和模型并行训练中的内存冗余,显著提高了训练速度并增加了可高效训练的模型大小。...more5minPlay
March 06, 2025AI Radio FM - 深度神经网络的异步流水线并行训练本期播客深入探讨了名为PipeMare的新型DNN训练方法,该方法在流水线并行训练中实现了高硬件利用率和低内存占用。...more4minPlay
March 06, 2025GShard:使用条件计算和自动分片扩展巨型模型本播客讨论了GShard,这是一个由一组轻量级注释API和XLA编译器的扩展组成的模块。它提供了一种优雅的方式来表达各种并行计算模式,而对现有模型代码的更改最少。GShard使我们能够使用自动分片将具有稀疏门控专家混合的多语言神经机器翻译Transformer模型扩展到超过6000亿个参数。我们证明了这种巨型模型可以在2048个TPU v3加速器上高效地训练4天,与现有技术相比,从100种语言到英语的翻译质量要高得多。...more6minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 399 episodes available.