Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 413 episodes available.
March 07, 2025PaLM:利用 Pathways 进行语言模型规模化本次播客深入探讨了谷歌最新的大型语言模型 PaLM,重点介绍了其架构、训练过程、在各种任务上的突破性能力,以及相关的偏见和伦理考量。...more5minPlay
March 06, 2025ZeRO: 内存优化实现万亿参数模型训练本次播客深入探讨了微软提出的ZeRO技术,该技术通过消除数据和模型并行训练中的内存冗余,显著提高了训练速度并增加了可高效训练的模型大小。...more5minPlay
March 06, 2025AI Radio FM - 深度神经网络的异步流水线并行训练本期播客深入探讨了名为PipeMare的新型DNN训练方法,该方法在流水线并行训练中实现了高硬件利用率和低内存占用。...more4minPlay
March 06, 2025GShard:使用条件计算和自动分片扩展巨型模型本播客讨论了GShard,这是一个由一组轻量级注释API和XLA编译器的扩展组成的模块。它提供了一种优雅的方式来表达各种并行计算模式,而对现有模型代码的更改最少。GShard使我们能够使用自动分片将具有稀疏门控专家混合的多语言神经机器翻译Transformer模型扩展到超过6000亿个参数。我们证明了这种巨型模型可以在2048个TPU v3加速器上高效地训练4天,与现有技术相比,从100种语言到英语的翻译质量要高得多。...more6minPlay
March 06, 2025PyTorch 分布式数据并行训练加速经验本播客讨论 PyTorch 分布式数据并行模块的设计、实现和评估。涵盖了梯度分桶、计算与通信重叠以及跳过同步等技术,以实现近线性可扩展性。...more7minPlay
March 06, 2025AI Radio FM - 深度学习模型训练加速本期节目探讨如何通过减少激活重计算来加速大型Transformer模型的训练。我们将深入研究序列并行和选择性激活重计算技术,以及它们如何与张量并行结合,以最大限度地减少激活重计算的需要。...more4minPlay
March 06, 2025AI Radio FM - 大规模语言模型训练技术本期播客深入探讨了使用 Megatron-LM 在 GPU 集群上进行高效大规模语言模型训练的技术,涵盖了数据并行、流水线并行和张量并行等关键概念,以及如何组合这些技术以实现高性能和可扩展性。...more4minPlay
March 03, 2025AI Radio FM - 深入剖析MOONCAKE:为Kimi提供动力的LLM服务平台本期播客深入探讨了Moonshot AI开发的LLM聊天机器人服务Kimi背后的服务平台MOONCAKE。MOONCAKE采用以KVCache为中心的解耦架构,不仅分离了预填充和解码集群,还高效利用GPU集群中未充分利用的CPU、DRAM、SSD和NIC资源,建立了分布式KVCache。该架构的核心是其以KVCache为中心的全局缓存和调度器,旨在最大化吞吐量,同时遵守严格的延迟相关服务水平目标(SLO)。...more6minPlay
FAQs about AI Podcast:How many episodes does AI Podcast have?The podcast currently has 413 episodes available.