Multi-Agent 系統實戰:從數據收集到自動報告的完整架構

AI Agent Feb 23, 2026

2026 年,AI Agent 已經不是「能不能用」的問題,而是「如何規模化」的挑戰。

當你的自動化需求從「每天摘要 10 篇文章」擴展到「每週產出 3 篇深度分析文章」,會發現單一 Agent 開始力不從心:任務太多、邏輯太複雜、錯誤難以追蹤,就像一個人要煮菜、洗碗、打掃、還要記帳,最後只會累死自己。

這時候,你需要 Multi-Agent 系統。

本文以我們實際運行的 DarkMeow(主控端)+ MeowClaw(執行端) 雙代理系統為例,拆解 Multi-Agent 架構的設計思維、技術實作與踩坑經驗。

為什麼需要 Multi-Agent?

單一 Agent 的瓶頸

想像你有一個 Agent 負責「每週產出產業分析報告」,它需要:

  1. 搜尋最新產業新聞(10+ 來源)
  2. 摘要每篇文章(50+ 篇)
  3. 分析趨勢與關鍵數據
  4. 撰寫報告(2000+ 字)
  5. 發布到 Blog 與社群平台

這個流程看似簡單,但實際執行時會遇到:

  • 執行時間過長:單一 Agent 逐步執行,可能需要 1-2 小時
  • 錯誤難以定位:某個步驟失敗,整個流程中斷,不知道問題出在哪
  • 無法並行處理:搜尋新聞與摘要文章可以同時進行,但單一 Agent 只能排隊
  • 邏輯混亂:一個 Agent 包含 5 種完全不同的任務,prompt 設計與錯誤處理複雜度激增

問我怎麼知道的?因為我們真的這樣跑過,結果是 Agent 累、我們也累。

Multi-Agent 的優勢

將任務拆分給專職 Agent,各司其職:

Agent 職責 特性
DarkMeow(主控端) 任務指派、品質審查、發布管理 高階模型,擅長分析與決策
MeowClaw(執行端) 知識蒐集、數據分析、內容撰寫 快速執行,擅長搜尋與產出

這樣做的好處:

  1. 專精化:主控端專注品質把關,執行端專注產出,prompt 與邏輯更簡潔
  2. 分層決策:DarkMeow 決定「做什麼」,MeowClaw 負責「怎麼做」
  3. 容錯性:MeowClaw 執行失敗,DarkMeow 可以重新派發或換策略
  4. 可擴展:未來加入更多執行端 Agent 很容易,主控端統一管理

就像餐廳分工:主廚(DarkMeow)決定菜色和品質標準,線上廚師(MeowClaw)負責備料和烹飪,不是一個人從採買到上菜全包。

架構設計:DarkMeow + MeowClaw 實例

系統架構圖

DarkMeow Scheduling-2026-02-23-073344.png

任務分工詳解

DarkMeow:主控端(首席顧問)

職責:

  1. 接收需求,拆解為具體執行任務
  2. 透過 sessions_spawn 派發任務給 MeowClaw
  3. 審查 MeowClaw 回傳的成果(事實正確性、格式規範、品牌一致性)
  4. 執行品質檢查腳本(blog-lint.js
  5. 通過審查後推送至 Ghost CMS 作為 Draft

為什麼主控端需要高階模型?

品質審查需要更強的判斷力:辨識事實錯誤、評估文章邏輯、確保品牌調性一致。這些任務對模型的推理能力要求比「搜尋 + 撰寫」更高,就像主廚需要更豐富的經驗來把關菜色品質。

MeowClaw:執行端(研究員)

職責:

  1. 從 Dev.to、Reddit、Hacker News 等來源搜尋關鍵字
  2. 抓取文章內容,生成摘要與相關性評分
  3. 分析高相關性素材,提煉核心觀點
  4. 撰寫文章初稿(遵循 Nerigate 寫作規範)
  5. 將結果回傳給 DarkMeow 審查

技術棧:

  • 搜尋:Brave Search API(控制節奏,間隔 ≥ 2 秒)
  • 抓取:web_fetch(轉 markdown)
  • 撰寫:LLM 生成(繁體中文、全形標點、零簡體字)

輸出格式範例:

{
  "collection_date": "2026-02-23",
  "articles": [
    {
      "title": "Self-Hosted AI in 2026",
      "url": "https://dev.to/...",
      "summary": "實戰教學將 Ollama 與 n8n 整合⋯⋯",
      "relevance_score": 0.95,
      "tags": ["n8n", "ollama", "self-hosted"]
    }
  ]
}

協作流程

一次完整的文章產出流程:

  1. Kevin 下達需求:「寫一篇關於 n8n + Ollama 整合的文章」
  2. DarkMeow 拆解任務:派發給 MeowClaw,蒐集 n8n + Ollama 相關素材,撰寫初稿
  3. MeowClaw 執行:搜尋 → 抓取 → 分析 → 撰寫初稿 → 回傳
  4. DarkMeow 審查:檢查事實、格式、品牌規範,執行 blog-lint.js
  5. DarkMeow 推送:通過審查後,推送至 Ghost 作為 Draft
  6. Kevin 最終發布:人工審核、加封面圖、按下 Publish

整個流程就像出版社:作者(MeowClaw)寫初稿、編輯(DarkMeow)審稿、總編(Kevin)最終拍板。

排程設計

使用 OpenClaw Cron 編排任務:

# 每週一 08:00 — DarkMeow 主控觸發
schedule:
  kind: cron
  expr: "0 8 * * 1"
  tz: Asia/Taipei

payload:
  kind: agentTurn
  message: |
    本週文章產出任務:
    1. 派發 MeowClaw 蒐集 AI Agent 相關素材
    2. 審查 MeowClaw 產出的初稿
    3. 通過品質檢查後推送 Ghost Draft
    4. 通知 Kevin 審核

關鍵設計點:

  1. 主控觸發:由 DarkMeow 統一啟動流程,而非讓 MeowClaw 自己跑
  2. 超時保護:MeowClaw 執行超時,DarkMeow 會中斷並警報
  3. 人工審核:通過所有自動檢查後,仍等待 Kevin 最終確認

品質控管機制

Multi-Agent 系統的挑戰在於如何確保每個環節的品質。

1. DarkMeow 品質閘門

MeowClaw 回傳成果後,DarkMeow 執行多重檢查:

  • 格式檢查:blog-lint.js,7 項自動化檢查(frontmatter、標點、字數、H1⋯⋯)
  • 內容審查:事實是否與原始素材一致?是否有 AI 幻覺?
  • 品牌一致性:語氣是否符合 Nerigate 風格?專有名詞是否統一?
# 自動化品質檢查
node skills/ghost-blog/scripts/blog-lint.js drafts/article.md --fix

2. 結構化回饋機制

審查不通過時,DarkMeow 會具體指出問題:

❌ 審查未通過:
1. 第 3 段提到「n8n 是 Google 開發的」,事實錯誤,n8n 是開源專案
2. 缺少程式碼範例(規範要求至少 1 個)
3. Excerpt 超過 150 字

請修正後重新提交。

MeowClaw 收到回饋後修正,再次提交審查,不是模糊的「再改一下」,而是清楚的改進方向。

3. 人工審核(最後防線)

即使通過 DarkMeow 的自動審查,仍需 Kevin 最終確認:

  1. Discord 通知:「文章已推送至 Ghost Draft,請審核」
  2. Kevin 在 Ghost 後台審閱:內容、封面圖、SEO 設定
  3. Kevin 決定發布或退回修改

為什麼不自動發布?

因為 AI 生成內容仍有機率出現:

  • 事實錯誤(自動檢查可能漏掉的細微錯誤)
  • 語氣不符(過於正式或過於隨便)
  • 敏感資訊(如內部專案名稱)

人工審核是最後一道防線,不是不信任 AI,而是對品質負責。

錯誤處理與監控

常見錯誤與應對策略

錯誤類型 範例 應對策略
搜尋 API 限制 Brave Search 429 MeowClaw 控制搜尋間隔 ≥ 2 秒
LLM 幻覺 生成內容包含虛構數據 DarkMeow 交叉比對原始素材
格式錯誤 缺少 frontmatter blog-lint.js 攔截
執行超時 MeowClaw 卡住 DarkMeow 設定超時,自動中斷

斷路器機制

當 MeowClaw 連續失敗 3 次,DarkMeow 會:

  1. 停止重複派發同一任務
  2. 切換策略(如縮小搜尋範圍、降低文章字數要求)
  3. 向 Kevin 結構化回報失敗原因與建議方案

這是從慘痛經驗學來的,早期 MeowClaw 搜尋 API 被限制,我們讓它重試了 10 次,結果 API 直接被封⋯⋯

成本與效益分析

Multi-Agent 系統的運行成本主要來自三塊:API 呼叫、伺服器電費、人工審核時間。

其中 API 成本極低,MeowClaw 的搜尋與撰寫、DarkMeow 的品質審查,每週合計不過幾十元台幣。真正的成本反而是伺服器 24/7 運行的電費,以及 Kevin 每週 30 分鐘的最終審核時間。

相比之下,若由人工完成同等工作量(素材蒐集 + 分析 + 撰寫 3 篇深度文章),至少需要 8-10 小時。Multi-Agent 將這個流程壓縮到「派發任務 → 等待產出 → 審核發布」,人類只介入最後一步。

效益不只是省時間

  1. 穩定性:每週準時產出,不受人員狀態影響
  2. 可擴展:要增加到每週 5 篇?調整 MeowClaw 任務參數即可
  3. 品質可控:DarkMeow 的品質閘門確保每篇文章都通過標準
  4. 數據累積:每週收集的文章摘要,長期下來就是一座產業情報庫

這不是「AI 取代人」,而是「AI 幫人做重複性工作,讓人專注在創意和決策」。

下一步:從雙 Agent 到 Multi-Agent 生態

目前 DarkMeow + MeowClaw 已經穩定運行,但我們計劃擴展更多專職 Agent:

  • SEO-Agent:優化文章標題與 meta description
  • Social-Agent:自動發布到 LinkedIn、Threads
  • Analytics-Agent:追蹤文章流量,生成效益報告

最終,Nerigate 的內容生產流程會變成完全自動化的生態系統:從數據收集、分析、撰寫、發布到效益追蹤,人類只需做最後的審核與決策。

聽起來很遙遠?其實已經在進行中了,你現在看的這篇文章,就是這套系統的產物。

實戰建議:從 0 到 1 建立你的 Multi-Agent 系統

Step 1:先證明單一 Agent 可行

不要一開始就設計複雜架構。先用一個 Agent 跑通整個流程,等穩定運行 2 週後,再考慮拆分,就像開餐廳,先證明菜色受歡迎,再考慮擴店。

Step 2:找出瓶頸,拆分職責

觀察 All-in-One Agent 的執行日誌:

  • 哪個步驟最慢?
  • 哪個步驟最常失敗?
  • 哪些步驟可以並行?

基於瓶頸,拆分為主控端 + 執行端。

Step 3:設計清晰的數據交接格式

Multi-Agent 的核心是數據交接。每個 Agent 的輸出必須是結構化、可驗證的格式,JSON 比純文本好,帶 schema 的 JSON 更好。

Step 4:加入品質閘門

主控端必須有能力驗證執行端的產出。沒有品質閘門的 Multi-Agent 系統,就像沒有 QA 的軟體團隊,遲早出事。

結語:Multi-Agent 是規模化的必經之路

單一 Agent 能做的事有限,Multi-Agent 才能解決複雜、多步驟、需要專業分工的問題。

核心設計原則:主控端管決策與品質,執行端管搜尋與產出。分層治理,各司其職。

DarkMeow + MeowClaw 只是起點,這不是科幻,而是 2026 年正在發生的現實。如果你也在思考如何規模化你的 AI 自動化,也許這套架構能給你一些靈感。

最後說一句:踩坑不可怕,可怕的是踩了坑還不記錄下來。這篇文章的每個設計決策、每個錯誤處理機制,都是我們用真金白銀(和無數除錯時間)換來的,希望能幫你少走一些彎路。

Tags