你跟 AI 聊了半小時,結果下一輪全忘了?問題不在 prompt。一篇新論文用 Unix 哲學,提出三層記憶架構讓 AI 跨對話保留知識。讀完你會更懂怎麼管理手邊 AI 工具的上下文。
⭐ 文章深度讀:論文三層記憶架構的完整拆解,以及你現在就能套用的上下文管理思路
→ https://heymaibao.com/ai-context-engineering-file-system/
📝 懶人包
∙ Prompt engineering 的時代正在過去,context engineering (上下文工程) 才是 AI 應用架構的真正戰場。你花在打磨指令的時間,可能該花在管理 AI 能看到的資訊上。
∙ 這篇論文把 Unix「一切皆檔案」的哲學搬到 AI 上下文管理:記憶、工具、知識庫,全部統一掛載成可存取的「檔案」,用同一套介面操作。
∙ AI 的「失憶」有了架構層級的解法:History (完整記錄) → Memory (結構化索引) → Scratchpad (臨時草稿區),三層記憶體系讓 AI 可以跨對話保留知識。
∙ 我的觀點:這篇論文最大的價值不是它提出的框架本身,而是它給了我們一個思考 AI 上下文管理的心智模型。你現在用的 CLAUDE.md、Cursor Rules、ChatGPT 的記憶功能,本質上就是 context engineering 的日常實踐。理解這個框架,你可以更有意識地設計自己的 AI 工作流。
📚 參考資料
Everything is Context: Agentic File System Abstraction for Context Engineering (Xu et al., 2025)
→ https://arxiv.org/abs/2512.05470