- 27
- เมษายน
ก่อนยุค MCP ทุกครั้งที่ผู้พัฒนาอยากเชื่อม AI กับระบบภายนอก (เช่น GitHub, Slack, ฐานข้อมูล) ต้องเขียน integration ใหม่ทุกครั้ง ทำให้เกิดปัญหา N×M — มี AI ทูล N ตัว มี data source M ตัว ก็ต้องเขียน integration N×M ครั้ง Model Context Protocol (MCP) คือมาตรฐานเปิดที่ Anthropic เปิดตัวเพื่อแก้ปัญหานี้ — บทความนี้จะเจาะลึกว่า MCP คืออะไร ทำงานยังไง และทำไมเป็นมาตรฐานที่ Google, OpenAI, Cursor และวงการ AI ทั้งหมดยอมรับ
สรุปสั้นๆ — MCP คืออะไร?
MCP (Model Context Protocol) เป็น มาตรฐานเปิด ที่ Anthropic เปิดตัวปลายปี 2024 ใช้เชื่อม LLM (เช่น Claude, GPT, Gemini) กับ tool และ data source ภายนอกผ่าน JSON-RPC 2.0 เปรียบเหมือน USB-C ของ AI — ปลั๊กเดียว ใช้ได้ทุกเครื่อง ปัจจุบันมี 97 ล้าน downloads/เดือน และ public servers 10,000+ ตัว ธ.ค. 2025 Anthropic บริจาค MCP ให้ Linux Foundation ภายใต้ Agentic AI Foundation
ปัญหาที่ MCP แก้: N×M Integration Hell
ก่อน MCP จะมา การเชื่อม AI Tool กับ data source เป็นเรื่องยุ่งยากมาก — ทุก vendor ต้องเขียน integration ของตัวเอง:
- มี AI Tool 5 ตัว (Claude, ChatGPT, Cursor, Copilot, Gemini)
- มี data source 10 ตัว (GitHub, Slack, Notion, Postgres, Google Drive, ฯลฯ)
- ต้องเขียน 5 × 10 = 50 integrations เพื่อให้ทุกคู่ทำงานร่วมกันได้
ยิ่ง AI Tools และ data sources เยอะขึ้น integration ก็ยิ่งเป็น N×M — ไม่ scalable มี duplicate code, มี bug, มี security risk Anthropic จึงสร้าง MCP ขึ้นมาเป็น มาตรฐานกลาง — เขียน MCP server ครั้งเดียว ใช้กับ AI ทุกตัวที่รองรับ MCP ได้ ลดจาก N×M เป็น N+M
Architecture: Client-Server บน JSON-RPC 2.0
MCP ใช้สถาปัตยกรรม Client-Server ที่สื่อสารผ่าน JSON-RPC 2.0 — เป็นโปรโตคอลตระกูลเดียวกับ Language Server Protocol (LSP) ที่ VS Code และ IDE อื่นๆ ใช้เชื่อมกับ language server
| บทบาท | หน้าที่ | ตัวอย่าง |
|---|---|---|
| MCP Host | โปรแกรมที่ผู้ใช้เปิด — มี LLM อยู่ด้านใน | Claude Desktop, Claude Code, Cursor, thClaws |
| MCP Client | ตัวแทนของ Host ที่คุยกับ Server แต่ละตัว (1 client ต่อ 1 server) | อยู่ภายใน Host — ผู้ใช้ไม่เห็นโดยตรง |
| MCP Server | โปรแกรมที่เปิด tool/resource/prompt ให้ Client เรียกใช้ | GitHub MCP server, Slack MCP server, Filesystem MCP server |
3 Capabilities ที่ MCP Server เปิดให้ใช้
MCP Server แต่ละตัวสามารถเปิด 3 ประเภท capability ให้ Host ใช้งาน:
| Capability | คืออะไร | ตัวอย่าง |
|---|---|---|
| Tools | ฟังก์ชันที่ AI เรียกได้ — มี side effect ได้ (เปลี่ยนข้อมูล, ส่ง message) | create_issue, send_slack, query_db, run_command |
| Resources | ข้อมูลที่ AI อ่านได้ — read-only ไม่มี side effect | file://path, postgres://table, gdrive://doc |
| Prompts | Template prompt สำเร็จรูปที่ Host เลือกใช้ได้ | "summarize_pr", "explain_query", "code_review" |
Handshake & Discovery — เริ่มต้นใช้งาน
เมื่อ Host เปิดขึ้นมา (เช่น Claude Desktop เริ่มทำงาน) มันจะคุยกับ MCP Server ที่ตั้งค่าไว้ตามขั้นตอนนี้:
- Initialize — Client ส่ง
initializerequest พร้อม version และ capabilities ที่รองรับ - Server Response — Server ตอบด้วย version และ capabilities ที่ตัวเองมี
- List — Client ขอรายการ tools/resources/prompts ทั้งหมดผ่าน
tools/list,resources/list,prompts/list - Register — Host เก็บรายการเหล่านี้ลง memory แล้วเสนอให้ LLM ใช้งานในระหว่างการสนทนา
- Invoke — เมื่อ LLM ตัดสินใจเรียก tool ใด Client ส่ง
tools/callให้ Server แล้วได้ผลกลับมา
Transport Modes — วิธีเชื่อม Client กับ Server
MCP รองรับ 3 วิธีในการสื่อสารระหว่าง Client กับ Server เลือกตามสภาพแวดล้อม:
| Transport | เหมาะกับ | รายละเอียด |
|---|---|---|
| stdio | Local server บนเครื่องเดียวกัน | Host spawn process ของ Server แล้วคุยผ่าน stdin/stdout — ง่ายที่สุด, ปลอดภัยที่สุด |
| HTTP + SSE | Remote server (legacy) | HTTP POST สำหรับ request, Server-Sent Events สำหรับ stream — แบบเก่า ปัจจุบันแนะนำ Streamable HTTP |
| Streamable HTTP | Remote server (modern) | HTTP endpoint เดียวที่รองรับทั้ง request/response และ streaming — มาตรฐานใหม่ที่แนะนำใช้ |
MCP Servers ที่มีให้ใช้
ปัจจุบันมี MCP server กว่า 10,000 ตัว ในระบบ — ทั้งจาก Anthropic, vendor official, และ community ตัวอย่างที่นิยมใช้:
| หมวด | ตัวอย่าง MCP Server |
|---|---|
| Code & DevOps | GitHub, GitLab, Git, Docker, Kubernetes, Sentry |
| Communication | Slack, Discord, Email (Gmail/IMAP), Teams |
| Data | Postgres, MySQL, MongoDB, Redis, BigQuery, Snowflake |
| Productivity | Google Drive, Google Calendar, Notion, Linear, Jira |
| Browser & Web | Puppeteer, Playwright, Brave Search, Fetch |
| Filesystem | Local filesystem, S3, GCS, Azure Blob |
ตัวอย่าง: ตั้งค่า MCP Server ใน Claude Desktop
การเพิ่ม MCP server ใน Claude Desktop ทำผ่านไฟล์ config ที่ ~/Library/Application Support/Claude/claude_desktop_config.json:
{
"mcpServers": {
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_xxxxxxxxxxxx"
}
},
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem",
"/Users/me/projects"]
}
}
}
เมื่อ Claude Desktop เริ่มทำงาน มันจะ spawn ทั้ง 2 server ผ่าน stdio และเริ่ม handshake อัตโนมัติ ผู้ใช้สามารถสั่ง Claude ทำงานเช่น "สร้าง issue บน GitHub repo X" หรือ "อ่านไฟล์ใน /Users/me/projects/foo" ได้ทันที
Adoption ในปี 2026 — มาตรฐานวงการ AI
MCP ไม่ได้เป็นแค่ของ Anthropic อีกต่อไป — กลายเป็น มาตรฐานวงการ ที่ผู้เล่นรายใหญ่ทุกคนรองรับ:
- 97 ล้าน downloads/เดือน ของ MCP SDK ทั่วทั้งระบบ (Mar 2026)
- 10,000+ public MCP servers เปิดให้ใช้งานได้
- ธ.ค. 2025 Anthropic บริจาค MCP ให้ Linux Foundation ภายใต้ Agentic AI Foundation — co-founded โดย Anthropic, Block, OpenAI พร้อม support จาก Google, Microsoft, AWS
- รองรับโดย: Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google), Cursor, Sourcegraph Amp, Factory, GitHub Copilot, thClaws
MCP กับ Claude Skills — ต่างกันอย่างไร
MCP กับ Claude Skills เป็นกลไกคนละแบบที่ใช้เสริมกัน ไม่ใช่ทางเลือกแทนกัน:
| หัวข้อ | MCP | Skills |
|---|---|---|
| หน้าที่ | เชื่อม AI กับ tool/data source ภายนอก | รวบ workflow + instructions + scripts ให้ AI ทำงานเฉพาะทาง |
| รูปแบบ | Server (process แยก) ที่คุยผ่าน JSON-RPC | Folder ที่มี SKILL.md + scripts + assets |
| การ trigger | LLM เรียก tool ตามชื่อและ schema | Auto-trigger ตาม whenToUse หรือ slash command |
| ใช้ร่วมกันยังไง | Skill ใช้ tool จาก MCP server ภายในตัวเองได้ | เป็น layer สูงกว่า MCP — encapsulate workflow ที่ใช้ MCP tools |
สรุป — Claude MCP ในย่อหน้าเดียว
| หัวข้อ | สรุป |
|---|---|
| คืออะไร | มาตรฐานเปิดที่ Anthropic สร้างเพื่อให้ AI Tools เชื่อมกับ data source/tool ภายนอกได้แบบ plug-and-play |
| เปรียบเหมือน | USB-C ของ AI — ปลั๊กเดียว ใช้ได้กับเครื่องไหนก็ได้ |
| เทคนิค | Client-Server architecture บน JSON-RPC 2.0 (เหมือน LSP) — รองรับ stdio, HTTP+SSE, Streamable HTTP |
| 3 Capabilities | Tools (เรียกได้) / Resources (อ่านได้) / Prompts (template สำเร็จ) |
| ระบบนิเวศ | 97M downloads/เดือน, 10K+ servers, รองรับโดย Anthropic/OpenAI/Google/Cursor/Microsoft/AWS |
| ปกครองโดย | Linux Foundation (Agentic AI Foundation) ตั้งแต่ ธ.ค. 2025 |
MCP เปลี่ยนวงการ AI Integration จาก N×M เป็น N+M — เขียน tool ครั้งเดียว ใช้กับ AI ทุกตัว เป็นมาตรฐานเดียวที่ทำให้ AI Agent ecosystem โตแบบ exponential ในปี 2026
- ทีมงาน Saeree ERP
อ่านต่อ — บทความที่เกี่ยวข้อง
- Claude Skills: Agent Skills คืออะไร คู่มือฉบับสมบูรณ์
- thClaws: AI Agent Workspace สัญชาติไทยที่รองรับ MCP
- Source Leak: Claude Code หลุด Source Code 512,000 บรรทัด
