这项研究评估了长周期智能体(Agentic Tasks)在不同大模型供应商(OpenAI、Anthropic 和 Google)中的提示词缓存(Prompt Caching)表现。实验证明,通过缓存静态的系统提示词,开发者可以将 API 调用成本降低 41% 至 80%,并使首字延迟(TTFT)缩短 13% 至 31%。研究特别强调,有针对性地控制缓存边界(如仅缓存系统提示词并排除动态工具执行结果)比全上下文自动缓存更有效,因为后者可能因处理不常复用的内容而增加延迟。此外,随着提示词规模的增加,成本节约表现出明显的线性增长趋势,为生产环境下的智能体系统优化提供了实际指导。总而言之,合理利用缓存机制是提升复杂 AI 应用效率与经济性的关键。