タイトル: Recursive Multi-Agent Systems著者: Xiyuan Yang, Jiaru Zou et al.(UIUC、Stanford、NVIDIA、MIT)発表: arXiv, 2026年4月複数のAIエージェントを「文章」ではなく「思考の中身(潜在表現)」で直接つなぐ新フレームワークLLM本体は凍結したまま、間をつなぐ小さなモジュールだけを学習させる省コスト設計精度は平均8.3%向上、速度は最大2.4倍、トークンは最大75.6%削減という三方良しの結果マルチエージェントシステム(MAS): 役割の違う複数のAIをチームのように連携させて問題を解く仕組みです。プランナー、批評役、解答役のように分業させます。潜在表現: AIが文章を出力する直前に内部で持っている「思考の数値ベクトル」のこと。文章にする前の生の中間状態です。再帰的計算: 同じ処理を何回もループさせて、答えを少しずつ深めていくやり方です。RecursiveLink: 本研究の中核となる小さなモジュール。エージェント同士の潜在表現を橋渡しする「翻訳機」のような役割を担います。勾配消失: 学習時に、層やループを重ねるほど学習の手がかりが伝わりにくくなる現象です。論文URL: https://arxiv.org/abs/2604.25917