
Sign up to save your podcasts
Or


「AI/LLM学術ニュースWeekly」では最新のAI/LLM学術ニュースについてWeeklyで語ります。
ファシリテーターはAI Transformation(AX)カンパニー AIコンサルティングマネージャー阿部、語り手はAIエンジニア 渋谷でお送りします。
第8回は、単一データの強化学習による性能向上に関する論文の解説です。
この論文では、たった一つの訓練データでLLMの推論能力が大幅に向上したという結果が示されています。
また訓練データの制度が飽和した状態で訓練を続けても、テスト精度が上がり続けるという現象も見られており、深層学習の通説とは違う結果が見られています。
詳しくはPodcastをお聞きください。
出演者
AI Transformation(AX)カンパニー AIコンサルティングマネージャー阿部(@abe__yudai)
AI Transformation(AX)カンパニー AIエンジニア 渋谷(@sergicalsix)
note
・https://note.com/algomatic_oa/n/n2aa2b79c5983
技術紹介のリンク
論文:https://arxiv.org/abs/2504.20571
コード:https://github.com/ypwang61/One-Shot-RLVR
Algomaticグループでは一緒に働く仲間を募集中です!
「AI/LLM学術ニュース Weekly」でご紹介しているような生成AI/LLMの技術に興味がある方々、Algomaticに興味がある方々、まずはカジュアル面談でお気軽に連絡いただければと思います。
採用情報はこちら:https://jobs.algomatic.jp/
By Algomatic「AI/LLM学術ニュースWeekly」では最新のAI/LLM学術ニュースについてWeeklyで語ります。
ファシリテーターはAI Transformation(AX)カンパニー AIコンサルティングマネージャー阿部、語り手はAIエンジニア 渋谷でお送りします。
第8回は、単一データの強化学習による性能向上に関する論文の解説です。
この論文では、たった一つの訓練データでLLMの推論能力が大幅に向上したという結果が示されています。
また訓練データの制度が飽和した状態で訓練を続けても、テスト精度が上がり続けるという現象も見られており、深層学習の通説とは違う結果が見られています。
詳しくはPodcastをお聞きください。
出演者
AI Transformation(AX)カンパニー AIコンサルティングマネージャー阿部(@abe__yudai)
AI Transformation(AX)カンパニー AIエンジニア 渋谷(@sergicalsix)
note
・https://note.com/algomatic_oa/n/n2aa2b79c5983
技術紹介のリンク
論文:https://arxiv.org/abs/2504.20571
コード:https://github.com/ypwang61/One-Shot-RLVR
Algomaticグループでは一緒に働く仲間を募集中です!
「AI/LLM学術ニュース Weekly」でご紹介しているような生成AI/LLMの技術に興味がある方々、Algomaticに興味がある方々、まずはカジュアル面談でお気軽に連絡いただければと思います。
採用情報はこちら:https://jobs.algomatic.jp/