Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
May 23, 2025探索小型推理语言模型的极限:Phi-4-Mini-Reasoning 的数学能力8 minutesPlay本期播客深入探讨了微软的研究论文“Phi-4-Mini-Reasoning:探索小型推理语言模型在数学领域的极限”。我们讨论了如何通过一个创新的四步训练方法,使一个仅有38亿参数的小型语言模型 Phi-4-Mini 在数学推理任务上超越更大的模型。...moreShareView all episodesBy weedgeMay 23, 2025探索小型推理语言模型的极限:Phi-4-Mini-Reasoning 的数学能力8 minutesPlay本期播客深入探讨了微软的研究论文“Phi-4-Mini-Reasoning:探索小型推理语言模型在数学领域的极限”。我们讨论了如何通过一个创新的四步训练方法,使一个仅有38亿参数的小型语言模型 Phi-4-Mini 在数学推理任务上超越更大的模型。...more
本期播客深入探讨了微软的研究论文“Phi-4-Mini-Reasoning:探索小型推理语言模型在数学领域的极限”。我们讨论了如何通过一个创新的四步训练方法,使一个仅有38亿参数的小型语言模型 Phi-4-Mini 在数学推理任务上超越更大的模型。
May 23, 2025探索小型推理语言模型的极限:Phi-4-Mini-Reasoning 的数学能力8 minutesPlay本期播客深入探讨了微软的研究论文“Phi-4-Mini-Reasoning:探索小型推理语言模型在数学领域的极限”。我们讨论了如何通过一个创新的四步训练方法,使一个仅有38亿参数的小型语言模型 Phi-4-Mini 在数学推理任务上超越更大的模型。...more
本期播客深入探讨了微软的研究论文“Phi-4-Mini-Reasoning:探索小型推理语言模型在数学领域的极限”。我们讨论了如何通过一个创新的四步训练方法,使一个仅有38亿参数的小型语言模型 Phi-4-Mini 在数学推理任务上超越更大的模型。