
Sign up to save your podcasts
Or
本期的 5 篇论文如下:
[00:39] TOP1(🔥162) | 🤖 OmniHuman-1: Rethinking the Scaling-Up of One-Stage Conditioned Human Animation Models(OmniHuman-1:重新思考单阶段条件式人体动画模型的放大)
[02:42] TOP2(🔥137) | 🤖 SmolLM2: When Smol Goes Big -- Data-Centric Training of a Small Language Model(SmolLM2:当小型模型走向大型化——以数据为中心的小型语言模型训练)
[04:42] TOP3(🔥108) | 🤔 The Differences Between Direct Alignment Algorithms are a Blur(直接对齐算法的差异逐渐模糊)
[06:27] TOP4(🔥93) | 🧠 s1: Simple test-time scaling(简单的测试时间缩放)
[08:14] TOP5(🔥53) | 💡 Process Reinforcement through Implicit Rewards(基于隐式奖励的过程强化)
【关注我们】
您还可以在以下平台找到我们,获得播客内容以外更多信息
小红书: AI速递
本期的 5 篇论文如下:
[00:39] TOP1(🔥162) | 🤖 OmniHuman-1: Rethinking the Scaling-Up of One-Stage Conditioned Human Animation Models(OmniHuman-1:重新思考单阶段条件式人体动画模型的放大)
[02:42] TOP2(🔥137) | 🤖 SmolLM2: When Smol Goes Big -- Data-Centric Training of a Small Language Model(SmolLM2:当小型模型走向大型化——以数据为中心的小型语言模型训练)
[04:42] TOP3(🔥108) | 🤔 The Differences Between Direct Alignment Algorithms are a Blur(直接对齐算法的差异逐渐模糊)
[06:27] TOP4(🔥93) | 🧠 s1: Simple test-time scaling(简单的测试时间缩放)
[08:14] TOP5(🔥53) | 💡 Process Reinforcement through Implicit Rewards(基于隐式奖励的过程强化)
【关注我们】
您还可以在以下平台找到我们,获得播客内容以外更多信息
小红书: AI速递