🐕 Arthur's Production Journal

Beyond Plugins: ใช้ OpenClaw เป็น AI Assistant ระดับ Production จริงๆ

หนึ่งปีกับสถาปัตยกรรมที่สำคัญกว่า plugin — ระบบ memory, วิเคราะห์ข้อมูลสาธารณสุข, sub-agent orchestration และความจริงที่ยุ่งเหยิงของการสร้าง AI ที่ใช้งานได้จริง

Beyond Plugins - Arthur at Command Center

โดย Anirach Mingkhwan, Ph.D., KMUTNB · 19 มีนาคม 2026 · อ่าน 12 นาที

บทนำ

ถ้าคุณเคยเข้าชุมชน OpenClaw คุณคงเคยเห็นโพสต์แบบ: "5 Plugin ที่จะเพิ่ม Productivity 10 เท่า!" หรือ "860 Integrations ในคลิกเดียว!" ระบบนิเวศ plugin กลายเป็นการแข่งกันที่จำนวน — ปริมาณมากกว่าคุณภาพ หน้าตาสวยกว่าใช้งานได้จริง

ผมมาเล่าให้ฟังเกี่ยวกับอีกทางหนึ่ง ตลอดปีที่ผ่านมา ผมรัน Arthur ซึ่งเป็น AI assistant ระดับ production ที่สร้างบน OpenClaw สำหรับจัดการงานวิจัย วิเคราะห์ข้อมูลสาธารณสุข ระบบ memory และเครื่องมือสำหรับงานวิชาการ ไม่ได้ใช้ plugin มากมาย แต่ใช้สถาปัตยกรรมที่ออกแบบมาอย่างตั้งใจ

Arthur รัน 24/7 บน VPS เชื่อมต่อผ่าน Telegram จัดการทุกอย่างตั้งแต่ National Patient Safety Dashboard ที่มีข้อมูลสาธารณสุข 4.7 ล้านรายการ ไปจนถึงการสร้างรายงานระดับบอร์ดบริหารในคืนเดียว นี่ไม่ใช่โพสต์ "productivity hack" อีกอัน — นี่คือความจริงที่ยุ่งเหยิงแต่ตรงไปตรงมาของการสร้างระบบ AI ที่ใช้งานได้จริง

ความจริงคือ OpenClaw ที่ config ดีพร้อมสถาปัตยกรรมที่ถูกต้อง ชนะ plugin collection ใดๆ ก็ตาม ให้ผมแสดงให้ดูว่าทำอย่างไร

สถาปัตยกรรมที่สำคัญจริงๆ

คนส่วนใหญ่คิดว่า OpenClaw คือการเชื่อมต่อบริการต่างๆ เข้าด้วยกัน ซึ่งเป็นการมองกลับหัว OpenClaw คือการ route ความฉลาดไปยังจุดที่ถูกต้อง

ระบบของผมใช้ OpenClaw เป็น gateway กลางที่ route request ไปยัง model ที่เหมาะสมตามความซับซ้อนของงาน:

🧠 OpenClaw Gateway
Intelligence Router
Claude Opus
งานซับซ้อน
+ วิเคราะห์
+ ตรวจโค้ด
Orchestrator + Code review
Claude Sonnet
งานทั่วไป
+ เอกสาร
+ ทดสอบ
Sub-agents + Docs
GPT-4o
งานเฉพาะทาง
+ batch
operations
ประหยัดต้นทุน batch ops

นี่ไม่ใช่การเลือก model ด้วย plugin — มันถูกสร้างไว้ใน model aliases ของ OpenClaw โดยตรง ไม่ต้องใช้ "router plugin" แค่ config อย่างฉลาด

การควบคุมต้นทุนเกิดจากการ route อย่างชาญฉลาด ไม่ใช่จาก plugin ตรวจค่าใช้จ่ายแยกต่างหาก เมื่อ Arthur spawn sub-agents สำหรับงานหนัก แชทหลักยังคง responsive เมื่อประมวลผลข้อมูลสาธารณสุข จะใช้ model ที่คุ้มค่าที่สุดที่ผ่านเกณฑ์ความปลอดภัย

เวทมนตร์ที่แท้จริงคือ sub-agent orchestration แทนที่จะบล็อกการสนทนาหลักระหว่างประมวลผล request ที่ซับซ้อน Arthur จะ spawn background worker แทน Sub-agents จัดการการสร้างเอกสาร query ฐานข้อมูล รวบรวมงานวิจัย — แล้วส่งผลลัพธ์ตรงมาทาง Telegram file upload agent หลักไม่เคยค้าง

รูปแบบสถาปัตยกรรมนี้ — spawn, work, deliver — กำจัด "typing indicator hell" ที่รบกวน AI assistant ส่วนใหญ่

Memory ที่คงอยู่ข้ามเซสชัน (โดยไม่ต้องใช้ Plugin)

AI assistant ทุกตัวเจอปัญหาเดียวกัน: มันลืมทุกอย่างระหว่างเซสชัน คำตอบจาก plugin ecosystem คือ? ติดตั้ง memory plugin ที่เก็บข้อมูลไว้บน cloud ของ vendor

แนวทางของผม: สร้างระบบ memory ที่ใช้งานได้จริง

ระบบ memory ของ Arthur รวม 3 ชั้น:

  1. Hindsight — knowledge graph แบบ open-source ที่รันบนเครื่อง
  2. Obsidian vault — โน้ตที่มนุษย์อ่านได้ sync สองทาง
  3. Daily memory files — บันทึกการเรียนรู้ของแต่ละเซสชัน
915
โน้ตที่ ingest แล้ว
2,790
Knowledge Nodes
30 นาที
รอบ Auto-sync
0
Cloud Dependencies

การ sync สองทางเป็นหัวใจสำคัญ: โน้ต Obsidian ใหม่จะ auto-ingest เข้า Hindsight ทุก 30 นาทีผ่าน cron ส่วน Hindsight reflections จะเขียนกลับไปเป็น structured notes ใน Obsidian Arthur สามารถค้นหาแบบ semantic ข้ามฐานความรู้ทั้งหมดได้

# ค้นหา memory แบบ semantic $ python3 tools/memory_search "healthcare accreditation trends" # สะท้อนรูปแบบอัตโนมัติ $ python3 tools/memory_reflect "What patterns emerge from recent research?" # จดจำความรู้ใหม่ $ python3 tools/hindsight_helper.py retain "HAI database has 87 tables, 4.7M records"

แต่นี่คือบทเรียนที่ยากลำบาก: การ ingest แบบ bulk ทำให้ Docker container crash 126 ครั้ง ทางออกไม่ใช่เพิ่ม memory หรือเปลี่ยน plugin — แต่เป็นการ batch แบบค่อยๆ ทำ ครั้งละ 2 รายการ หน่วง 3 วินาที จำกัด memory 4GB บางทีการ optimize ที่ดีที่สุดคือการทำช้าลง

ไม่ต้องใช้ plugin แค่ Docker, Python sync script และความอดทนในการทำให้มันใช้งานได้

การเชื่อมต่อฐานข้อมูลจริง: วิเคราะห์ข้อมูลสาธารณสุข

เมื่อคนพูดถึง "เชื่อมต่อ 860 แอป" ปกติหมายถึงการ integrate ระดับผิวๆ ผ่าน API แต่ Arthur เชื่อมต่อกับ data warehouse ของสถาบันรับรองคุณภาพสถานพยาบาล (สรพ.) — 87 ตาราง ข้อมูล 4.7 ล้านรายการ ข้อมูลสาธารณสุขจริงที่ส่งผลต่อผู้ป่วยจริง

นี่ไม่ใช่ "integration แบบคลิกเดียว" นี่คือสถาปัตยกรรมที่ออกแบบอย่างรอบคอบและปลอดภัย เคารพอธิปไตยของข้อมูล

4.7M
รายการข้อมูลสาธารณสุข
1,584
โรงพยาบาลที่ติดตาม
155K
เตียงผู้ป่วย
87
ตารางฐานข้อมูล

Arthur สร้าง National Patient Safety Dashboard จากข้อมูลนี้: 1,584 โรงพยาบาล 155,000 เตียง ติดตามเหตุการณ์ด้านความปลอดภัยทั่วทั้งระบบสาธารณสุขไทย แต่ทุก query ต้องผ่าน de-identification wrapper:

# ไม่เคยใช้ psql ตรงๆ — ต้องผ่าน wrapper เสมอ $ python3 tools/ha_query.py "SELECT enrollment_name, COUNT(*) FROM bi_hcr_thip GROUP BY 1" # Wrapper จัดการ: # ✓ เชื่อมต่อ VPN ไปเครือข่ายที่ปลอดภัย # ✓ ตรวจสอบ query (sanitization) # ✓ ลบข้อมูลส่วนบุคคลอัตโนมัติ (ตาม PDPA) # ✓ จัดรูปแบบผลลัพธ์

การปฏิบัติตาม PDPA หมายความว่าข้อมูลสาธารณสุขที่อ่อนไหวอยู่บนเครื่องตลอด — ไม่เคยส่งไป cloud API เมื่อ Arthur สร้างรายงานจากข้อมูลนี้ การวิเคราะห์เกิดขึ้นในองค์กร ไม่ใช่บน cloud ของ vendor

นี่ไม่ใช่ปรัชญา "เชื่อมต่อทุกอย่าง" นี่คือ การ integrate อย่างรอบคอบที่ให้ความสำคัญกับความปลอดภัยและ compliance เป็นอันดับแรก

ชุดเครื่องมืองานวิจัย (สร้างเอง ไม่ได้ติดตั้ง)

การเผยแพร่งานวิชาการมีข้อกำหนดเฉพาะ: กราฟที่พร้อมตีพิมพ์ การจัดรูปแบบที่แม่นยำ PDF ที่แก้ไขข้อความได้ แทนที่จะหา plugin ผมสร้าง Academic Charts Toolkit ให้ Arthur ภายในเซสชันเดียวตอนที่ต้องใช้

กราฟ 6 ประเภท: Sankey diagrams, 3D scatter plots, heatmaps, grouped bar charts, radar charts และ multi-panel composers ทั้งหมดพร้อมตีพิมพ์: ฟอนต์ Arial, ความละเอียด 300 DPI, PDF ที่แก้ไขข้อความได้ (fonttype 42)

ใช้ matplotlib ล้วน — ไม่ต้องพึ่ง Chrome ไม่มี Plotly cloud services รันได้ทุกที่ เมื่อ Arthur สร้างกราฟงานวิจัย พร้อมส่งตรวจ peer review โดยไม่ต้องแก้ไขเพิ่ม

🎨 ผลลัพธ์ระดับตีพิมพ์

  • กราฟ 6 ประเภท — Sankey, 3D scatter, heatmaps, grouped bar, radar, multi-panel
  • 300 DPI — ความละเอียดระดับวารสาร
  • PDF ที่แก้ไขข้อความได้ — fonttype 42 สำหรับผู้ตรวจ
  • ไม่พึ่ง cloud — matplotlib ล้วน รันได้ทุกที่

ชุดเครื่องมือนี้ไม่ได้โหลดจาก marketplace มันถูกออกแบบมาเพื่อความต้องการงานวิจัยเฉพาะของผม: การแสดงผลข้อมูลสาธารณสุข วิเคราะห์แนวโน้มความปลอดภัยผู้ป่วย ตัวชี้วัดผลงานสถาบัน เมื่อคุณสร้างเครื่องมือเองแทนที่จะติดตั้ง มันจะตรงกับสิ่งที่คุณต้องการพอดี

Document Pipeline ที่ไม่มีใครพูดถึง

ทุกคนโชว์ฝั่ง input — "สั่ง Arthur เขียนรายงาน!" ไม่มีใครโชว์ output pipeline ว่าร่างรายงานกลายเป็นเอกสารระดับบอร์ดบริหารได้อย่างไร? ผลการวิจัยกลายเป็นบทความพร้อมตีพิมพ์ได้อย่างไร?

Document pipeline ของ Arthur จัดการ output ระดับองค์กร: รายงาน DOCX พร้อมระบบ template, สารบัญอัตโนมัติ, เลขหน้า, ตารางที่จัดรูปแบบสม่ำเสมอ รายงาน HAI IT Strategy — 52 ตาราง 2,775 คำ คุณภาพระดับบอร์ด — ถูกสร้างและแก้ไขภายในคืนเดียว

แต่นวัตกรรมที่แท้จริงคือ การส่งไฟล์ Sub-agents ไม่ได้แค่บันทึกไฟล์ในเครื่อง — พวกมัน upload ขึ้น Google Drive พร้อมจัดโฟลเดอร์ และส่งตรงผ่าน Telegram เมื่อ Arthur ทำรายงานวิจัยเสร็จ คุณจะได้ 3 อย่างทันที:

  1. 📱 ไฟล์ส่งตรงถึงอุปกรณ์ ผ่าน Telegram
  2. ☁️ ลิงก์ Google Drive ที่จัดโฟลเดอร์เรียบร้อย
  3. 📝 Session log ที่บันทึกกระบวนการสร้าง

ไม่ต้องรอ upload ไม่ต้องหาไฟล์ในโฟลเดอร์ ไม่ต้องสงสัยว่าเวอร์ชันไหนเป็นตัวล่าสุด Pipeline จัดการการแจกจ่ายให้อัตโนมัติ

สิ่งที่ผมแนะนำจริงๆ

หลังจากใช้งานจริงมาหนึ่งปี นี่คือสิ่งที่สำคัญจริงๆ:

1

ลงทุนกับสถาปัตยกรรม Memory

Hindsight + daily logs + semantic search ชนะ memory plugin ใดๆ สร้างระบบที่จับสิ่งสำคัญ ทิ้งสิ่งที่ไม่จำเป็น และแสดง insight เมื่อคุณต้องการ

2

เรียนรู้ Sub-Agent Orchestration

เรียนรู้การ spawn background workers และทำให้แชทหลัก responsive ผู้ใช้ไม่อยากจ้องหน้าจอ typing indicator 5 นาทีขณะที่คุณสร้างรายงาน

3

สร้างเครื่องมือเฉพาะด้าน

Custom wrapper สำหรับข้อมูลสาธารณสุขมีค่ามากกว่า 860 generic integrations เมื่อคุณสร้างเครื่องมือสำหรับงานเฉพาะด้าน มันจัดการ edge cases และเคารพข้อกำหนด compliance

4

รูปแบบ Self-Healing

ดูแล directory .learnings/ ที่บันทึก error, การแก้ไข และช่องว่างของฟีเจอร์ ทุกข้อผิดพลาดกลายเป็นความรู้ขององค์กร ระบบเรียนรู้จากข้อผิดพลาดอย่างแท้จริง

5

Observability (จุดที่ยังขาด)

การติดตาม sub-agent spawning, ต้นทุนการใช้ model, ประสิทธิภาพระบบ memory — ตรงนี้แหละที่ plugin อาจช่วยได้ แม้แต่ "คำแนะนำ plugin" ของผมก็เป็นเรื่อง observability ไม่ใช่ฟังก์ชันหลัก

ความจริงที่ไม่สบายใจเกี่ยวกับ Plugin Ecosystems

Plugin ecosystems ถูก optimize เพื่อดึงดูด developer ไม่ใช่เพื่อผลลัพธ์ของผู้ใช้ ติดตั้งง่ายทำให้คนดาวน์โหลด Demo สวยทำให้คนแชร์บน social media แต่การใช้งานจริงเผยให้เห็นลำดับความสำคัญที่ต่างออกไป:

ความน่าเชื่อถือสำคัญกว่าฟีเจอร์ Arthur จัดการข้อมูลสาธารณสุขที่ส่งผลต่อความปลอดภัยผู้ป่วย ผมต้องการระบบที่ทำงานสม่ำเสมอ ไม่ใช่ระบบที่ทำ 860 อย่างได้แบบห่วยๆ

ความลึกสำคัญกว่าความกว้าง การเชื่อมต่อฐานข้อมูลเดียวที่ปลอดภัยอย่างดี มีค่ามากกว่า integration ระดับผิวเผินกับ 100 บริการ

ภาระการดูแลรักษา ทุก plugin คือ dependency ที่อาจพัง ระบบ memory หลักของ Arthur รันมา 11 เดือนโดยไม่ต้องซ่อม Plugin setup กี่ตัวที่พูดได้แบบนี้?

ความจริงที่ไม่สบายใจ: การ setup OpenClaw ที่ดีที่สุดไม่ได้เกี่ยวกับ plugin มันเกี่ยวกับสถาปัตยกรรม

อะไรทำให้ AI Assistant ใช้งานได้จริงใน Production

หลังจากรัน Arthur ใน production มาหนึ่งปี นี่คือสิ่งที่แยกโปรเจคงานอดิเรกออกจากระบบจริง:

Workspace ที่มีโครงสร้าง SOUL.md กำหนดบุคลิกและขอบเขต AGENTS.md บันทึกการ route งาน MEMORY.md เก็บความรู้ขององค์กร TOOLS.md ลิสต์ความสามารถที่มี สิ่งเหล่านี้ไม่ใช่ output จาก plugin — เป็นการตัดสินใจทางสถาปัตยกรรม

รูปแบบการกู้คืนจากข้อผิดพลาด เมื่อ sub-agents timeout เมื่อการเชื่อมต่อฐานข้อมูลล้มเหลว เมื่อ upload ไฟล์ error — เกิดอะไรขึ้น? Arthur บันทึกทุกอย่าง เรียนรู้จากความล้มเหลว และสร้างความแข็งแกร่งขึ้นเรื่อยๆ

ความปลอดภัยจากการออกแบบ ข้อมูลสาธารณสุขไม่เคยส่งไป cloud API การลบข้อมูลส่วนบุคคลเกิดขึ้นอัตโนมัติ สิทธิ์ไฟล์ถูกจำกัด นี่ไม่ใช่ความปลอดภัยที่ config ผ่าน plugin — นี่คือความปลอดภัยจากสถาปัตยกรรม

ตระหนักเรื่องต้นทุน Smart model routing, การใช้ sub-agent อย่างมีประสิทธิภาพ, ประมวลผลในเครื่องสำหรับข้อมูลอ่อนไหว ค่าใช้จ่ายรายเดือนของ Arthur ไม่เคยเกิน $7 ในเดือนไหน แม้จะจัดการข้อมูลสาธารณสุข 4.7 ล้านรายการ

สรุป

การ setup OpenClaw ที่ดีที่สุดไม่ได้เกี่ยวกับ plugin — มันเกี่ยวกับสถาปัตยกรรม มันเกี่ยวกับการสร้างระบบที่ทำงานได้อย่างน่าเชื่อถือ จัดการความต้องการเฉพาะด้านของคุณ และพัฒนาตัวเองขึ้นเรื่อยๆ ผ่านการเรียนรู้ที่มีโครงสร้าง

Arthur จัดการ workflow งานวิจัย วิเคราะห์ข้อมูลสาธารณสุข เผยแพร่งานวิชาการ และรายงานระดับสถาบัน เพราะมันถูกออกแบบเป็นระบบ ไม่ใช่ประกอบจาก plugin สถาปัตยกรรม memory ทำให้ความรู้คงอยู่ข้ามเซสชัน โมเดลความปลอดภัยเคารพอธิปไตยข้อมูล Document pipeline จัดการข้อกำหนดระดับองค์กร Sub-agent orchestration ทำให้การใช้งาน responsive

ผมจะทำสิ่งเหล่านี้ได้ด้วย plugin ไหม? อาจจะ แต่มันจะน่าเชื่อถือ ปลอดภัย และตรงกับความต้องการเท่านี้ไหม? ไม่แน่นอน

🏗️ ข้อได้เปรียบทาง OpenClaw ของคุณไม่ได้อยู่ที่ plugin collection

มันอยู่ที่โครงสร้าง workspace ของคุณ การตัดสินใจทางสถาปัตยกรรม และความตั้งใจที่จะสร้างเครื่องมือที่แก้ปัญหาจริง

หยุดสะสม plugin เริ่มสร้างระบบ