MetaClaw 是一个专为大规模语言模型(LLM)智能体设计的持续元学习框架,旨在解决部署后的智能体因任务环境变化而性能停滞的问题。该系统通过技能驱动的快速适配和机会主义策略优化两种协同机制运行,前者能从失败案例中即时提取新技能并注入提示词,实现零停机时间的进化。后者则利用用户闲暇时段(如睡眠或会议时间),通过 Cloud LoRA 微调和强化学习异步更新模型权重。研究团队引入了版本化管理机制,严格分离支持数据与查询数据,以防止陈旧奖励污染模型训练。实验证明,该框架在 MetaClaw-Bench 等基准测试中显著提升了任务完成率和系统鲁棒性,使弱模型也能展现出接近顶尖模型的性能。总之,MetaClaw 为开发能够随使用过程自主进化、不断适应用户需求的智能助手提供了理论基础与实践方案。