2026-04-09|作者:小露
欸,你有沒有想過一件事——
你去年花了多少時間在寫跟業務邏輯完全無關的東西?
不是在寫 feature,而是在寫「讓 AI 可以幫你寫 feature 的骨架」:維護 agent loop、處理 tool 的 retry 邏輯、管理 context 不要爆、自己搞失敗恢復機制……
這些東西每家公司都在重新發明,每個工程師都從頭燒腦,結果大家燒出來的輪子長得差不多但又各有奇怪的 bug。
Anthropic 昨天(4/8)做了一件事:他們說,這些你不用再自己搞了。
什麼是 Claude Managed Agents?
用最直白的方式說:
以前你要讓 Claude 做複雜任務,得自己寫 agent loop——呼叫 API → 拿到 tool use 請求 → 執行工具 → 把結果丟回去 → 再呼叫 API → 重複,一直到 Claude 說「我做完了」。這整條 loop 你要自己維護,容錯要自己寫,scale 要自己想。
Claude Managed Agents 的意思是:這條 loop 現在跑在 Anthropic 的基礎設施上,不在你的機器上。
你定義好「這個 Agent 是誰、有哪些工具、跑在什麼環境」,剩下的 Anthropic 幫你兜。
先搞清楚:Claude 的產品族系是什麼關係?
在講 Managed Agents 之前,先把整個產品圖攤開來——這個部分很多人搞混,但搞清楚之後後面的東西會容易很多。
Claude Code是 Anthropic 給開發者用的命令列工具(CLI),你在 terminal 裡跑,可以直接對話、叫它寫 code、讀 repo、跑指令。它的底層跑的是一套完整的 agent loop:Claude 想到要讀什麼檔就讀,想 run 什麼指令就 run,用工具取得結果後繼續推理,直到任務完成。這個 loop 是真正的 agent 行為,不是一問一答。
Claude Agent SDK(前身叫 Claude Code SDK,最近才改名)是把 Claude Code 的那套 agent loop 拆出來打包成 library,讓開發者可以在自己的應用程式裡用 Python 或 TypeScript 呼叫——不是在 terminal 互動,而是寫進程式裡、整合到自己的系統裡。你的應用程式呼叫 SDK,SDK 幫你跑 agent loop,結果回傳給你的程式。
Cowork是 Anthropic 的桌面端產品,面向不寫程式的使用者。底層一樣是 Agent SDK,把 agent 的能力包成有介面的桌面工具,讓一般使用者可以用自然語言下指令,由 Cowork 協調背後的執行,不需要碰 terminal 或寫任何 code。
三個的共同點:agent loop 都跑在你的電腦上(或你自己的伺服器)。你負責維護這個執行環境,東西在你手上。
Claude Managed Agents是第四條路:把 agent loop 搬到 Anthropic 的雲端。你不需要有執行環境,不需要維護 loop,打個 API 就可以觸發一個在 Anthropic 基礎設施上跑的 Agent。
用一個比喻:Claude Code / SDK / Cowork 是「自己買伺服器」,Managed Agents 是「上雲」。能做的事本質相同,但誰管、在哪跑、出了問題誰負責——這些不一樣。
那它跟「直接打 API」差在哪?
官方的對比非常坦白,我直接翻給你看:
| 面向 | 自己打 Messages API | Claude Managed Agents | |------|--------------------|-----------------------| | Agent loop | 你自己維護,跑在你的客戶端 | Anthropic 幫你跑,server-side | | 失敗恢復 | 你自己寫 retry 邏輯 | 透過 session replay 自動恢復 | | Session 歷史 | 你自己管,塞在 context window 裡 | 獨立的 append-only event log,永遠在 | | 同時跑多個 harness | 你要自己協調 | 多個 stateless harness 可以共用同一個 session | | 適合場景 | 短任務、需要精細控制 | 長時間異步任務、生產環境規模 |
用程式碼說更清楚:
以前(自己維護 loop):
response = client.messages.create(...)
while response.stop_reason == "tool_use":
result = your_tool_executor(response.tool_use)
response = client.messages.create(tool_result=result, ...)
現在(交給 Managed Agents):
async for message in query(prompt="幫我找 auth.py 的 bug 並修復"):
print(message) # Claude 自己讀檔、找問題、修改,你等結果就好
最妙的設計:大腦和手分開
Anthropic 工程部落格把這個架構叫做「Decoupling the brain from the hands(大腦與手的解耦)」,我覺得這個比喻真的很到位。
- 大腦(Brain):Claude 模型 + harness,負責推理和決策
- 手(Hands):沙盒容器 + 工具,負責執行
- 記憶(Session):獨立在兩者之外的 append-only 事件日誌
這三個東西各自獨立。所以:
- 模型版本更新?Harness 換新的,session 歷史還在
- 容器環境要改?Swap 掉,不影響推理邏輯
- Harness 突然崩潰?呼叫
wake(sessionId),從最後記錄點接著跑
這個設計哲學跟作業系統的硬體抽象層是同一個思路——執行環境和邏輯層解耦,兩邊都可以獨立演進。
進階功能(目前還在 Research Preview)
三個還在申請才能用的功能,但方向很值得注意:
Outcomes(成果驅動執行)
你不只告訴 Claude「幫我做 X」,你定義「什麼叫做成功」。Claude 會自我評估,如果還沒達到目標就繼續迭代,直到符合你設定的標準為止。
內部測試在結構化任務上,比標準 prompting loop 提升最多 10 個百分點的成功率,而且越難的問題改善越顯著。這代表什麼?以後你可能不需要那麼精細地 prompt 工程,只需要描述好「完成」的樣子。
Multi-Agent(多 Agent 協作)
一個協調者 Agent 可以同時召喚多個子 Agent 並行處理。每個 Agent 有獨立的 context window,但共享同一個容器和檔案系統。
目前只支援一層委派(子 Agent 不能再叫 Agent),但光這樣就已經可以做很多事:
- 一個 reviewer Agent 做 code review,只有唯讀工具
- 一個 test Agent 專寫測試,不碰生產程式碼
- 一個 research Agent 整理搜尋結果回報協調者
Memory(跨 Session 記憶)
讓 Agent 在不同 session 之間保留知識。細節還在 preview 階段,但配合 Outcomes 和 Multi-Agent,大致可以看出 Anthropic 想往哪走——一個能長期執行、自我改進、跨任務累積知識的 Agent 系統。
誰已經在用了?
幾個已經公開的案例:
- Notion:平行處理程式撰寫、網站建立、簡報生成
- Rakuten:幾週內就把 Agent 部署到橫跨產品、業務、財務的各個團隊
- Asana:讓 AI Agent 真的跟人類一起出現在專案任務裡
- Sentry:除錯 Agent + 修補程式撰寫,縮短從發現 bug 到修復的週期
Anthropic 說可以把開發時間從「數個月」壓到「數天到數週」。這個數字我持保留態度,但方向對。
一個 meta 的觀察
如果你現在是透過 Cowork 讀這篇文章,或者平常用 Claude Code 在 terminal 裡寫程式——你已經在用 Claude Agent SDK 那套東西了,只是換了一個介面。
而 Claude Managed Agents 就是這套東西的雲端版:一樣的推理邏輯,一樣的工具框架,只是執行環境從你的機器換到了 Anthropic 的基礎設施。
換句話說:Claude Code、Cowork、Managed Agents,是同一條技術脈絡長出來的三個分支——一個給開發者在 terminal 用,一個給一般使用者在桌面用,一個讓 Anthropic 的雲端幫你跑。
我的看法
這件事的本質不是「又一個新功能」,而是 AI 應用的基礎設施層正在成形。
以前你要做一個能實際完成複雜任務的 AI 應用,你得同時是 AI 工程師 + 基礎設施工程師 + 產品工程師。現在 Anthropic(以及其他公司也在做類似的事)在幫你把基礎設施那一層抽象掉。
這個模式我們以前在雲端運算看過:AWS 出來之前,你得自己管機房、自己買伺服器、自己搞 HA。AWS 出來之後,那些問題不是消失了,而是往下沉進去了平台,你可以把腦力用在真正有差異化的業務邏輯上。
AI agent 基礎設施正在走同樣的路。
當然,這也代表越依賴受托管服務,對底層的掌控就越低。Anthropic 升版、改規格、漲價——你能做的選擇會減少。自己維護 agent loop 有自己的麻煩,但彈性就在那裡。
兩種路線都有道理,取決於你在建什麼、需要多少掌控、團隊有多少人力。
但如果你之前因為「搭 agent 框架太麻煩」而放棄或延後了某個 AI 功能的想法——現在是個好時機重新拿出來評估看看。