- 31
- มีนาคม
DeepSeek Series EP.4
ใน EP.3 ของ DeepSeek Series เราได้อธิบายไปแล้วว่าการส่งข้อมูลไปยังเซิร์ฟเวอร์ DeepSeek ในจีนมีความเสี่ยงด้าน Data Privacy อย่างมาก — ตั้งแต่กฎหมาย National Intelligence Law ไปจนถึงเรื่อง PDPA ของไทย แต่ถ้าเราไม่ส่งข้อมูลออกไปเลยล่ะ? ถ้าเราดาวน์โหลดโมเดล DeepSeek มารันบนเซิร์ฟเวอร์ขององค์กรเอง — ข้อมูลไม่ออกนอกเครือข่ายภายในแม้แต่ Byte เดียว — นี่คือแนวคิดของ Self-host AI ซึ่งเป็นคำตอบสำหรับองค์กรที่ต้องการใช้ AI แบบ Open-source โดยไม่ต้องเสี่ยงเรื่องข้อมูลรั่วไหล
แต่ Self-host ไม่ได้ฟรี — ต้องลงทุน Hardware ต้องมีทีม IT ดูแล และต้องเข้าใจข้อจำกัดของโมเดลแต่ละขนาด บทความนี้จะพาคุณดูทุกมุมของการ Self-host DeepSeek ตั้งแต่ โมเดลไหนรันได้บน Laptop ไปจนถึง ต้องลงทุนกี่ล้านบาทสำหรับ Enterprise พร้อมวิธีติดตั้ง Step-by-Step ที่ทำตามได้จริง
สรุปสั้น — Self-host DeepSeek คืออะไร?
- Self-host DeepSeek = ดาวน์โหลดโมเดลมารันบนเซิร์ฟเวอร์ขององค์กรเอง ข้อมูลไม่ออกนอกเครือข่ายภายใน
- ต้องการ RAM 4-512GB+ ขึ้นกับขนาดโมเดลที่เลือก (ตั้งแต่ 1.5B ถึง 671B Parameters)
- เริ่มต้นจาก DeepSeek-R1-Distill-Qwen-7B ซึ่งรันบน Laptop ได้เลย! ไปจนถึง V3 671B สำหรับ Enterprise
- คุ้มค่าสำหรับองค์กรที่ใช้ AI volume สูง (มากกว่า $500/เดือน ค่า API) — Self-host คืนทุนได้ใน 1-2 ปี
- ติดตั้งง่ายที่สุดผ่าน Ollama — 3 คำสั่งก็เริ่มใช้งานได้
Self-host คืออะไร? ต่างจากใช้ API อย่างไร?
ก่อนจะลงรายละเอียด มาทำความเข้าใจก่อนว่า "Self-host" กับ "ใช้ API" ต่างกันอย่างไร เพราะสองทางเลือกนี้มีข้อดีข้อเสียที่ต่างกันมาก และการเลือกผิดอาจทำให้องค์กรเสียทั้งเงินและเวลาโดยไม่จำเป็น
| หัวข้อ | API (Cloud) | Self-host (On-premise) |
|---|---|---|
| ข้อมูลอยู่ที่ | เซิร์ฟเวอร์ DeepSeek (จีน) | เซิร์ฟเวอร์ขององค์กร |
| ค่าใช้จ่าย | จ่ายตามใช้ (per token) | ลงทุน Hardware ครั้งเดียว |
| Data Privacy | ข้อมูลส่งออกนอกองค์กร | ข้อมูลอยู่ภายใน 100% |
| Customization | จำกัด — ใช้ได้ตามที่ DeepSeek เปิดให้ | Fine-tune ได้ตามต้องการ |
| Maintenance | ไม่ต้องดูแลเอง | ต้องมีทีม IT ดูแล |
| Uptime | พึ่งพา DeepSeek (เคย ล่ม 7 ชั่วโมง) | ควบคุมเอง 100% |
พูดง่ายๆ คือ API เหมือน เช่าใช้ AI — สะดวก ไม่ต้องดูแล แต่ข้อมูลออกนอกองค์กร ส่วน Self-host เหมือน ซื้อ AI มาไว้ที่บ้าน — ลงทุนครั้งเดียว ข้อมูลอยู่กับเรา แต่ต้องดูแลเอง ซึ่งเป็นแนวคิดเดียวกับระบบ ERP แบบ On-premise ที่หลายองค์กรคุ้นเคย
โมเดล DeepSeek ที่ Self-host ได้ — จาก Laptop ถึง Data Center
DeepSeek เปิดให้ดาวน์โหลดโมเดลหลายขนาด ตั้งแต่โมเดลเล็กจิ๋วที่รันบน Laptop ได้ ไปจนถึงโมเดลยักษ์ที่ต้องใช้ GPU Server ราคาหลายล้าน ตารางนี้เป็นตารางสำคัญที่สุดในบทความ — เก็บไว้อ้างอิงได้เลย:
| โมเดล | ขนาด | RAM ที่ต้องการ | GPU | เหมาะกับ |
|---|---|---|---|---|
| R1-Distill-Qwen-1.5B | 1.5B | 4GB | ไม่จำเป็น (CPU ได้) | ทดสอบ, เรียนรู้ |
| R1-Distill-Qwen-7B | 7B | 8-16GB | GPU 8GB+ หรือ CPU | Chatbot ง่ายๆ, สรุปเอกสาร |
| R1-Distill-Qwen-32B | 32B | 24-48GB | GPU 24GB+ (RTX 4090) | งานวิเคราะห์ระดับกลาง |
| R1-Distill-Llama-70B | 70B | 48-96GB | GPU 2x48GB (A6000) | งานที่ต้องการคุณภาพสูง |
| DeepSeek-V3 (full) | 671B | 350-500GB+ | 8xA100/H100 80GB | Enterprise, production |
| DeepSeek-R1 (full) | 671B | 350-500GB+ | 8xA100/H100 80GB | Reasoning tasks ระดับสูง |
สิ่งที่น่าสนใจคือ โมเดลขนาด 7B ที่ผ่านการ Distill (กลั่น) จากโมเดลใหญ่ ให้ผลลัพธ์ที่ดีอย่างน่าประหลาดใจ — หลาย Benchmark ทำคะแนนได้ดีกว่า ChatGPT เวอร์ชัน GPT-3.5 ที่เคยเป็นมาตรฐาน AI เมื่อ 2 ปีก่อน ทั้งที่รันได้บน Laptop ธรรมดา สำหรับรายละเอียดเทคนิค Mixture of Experts (MoE) ที่ทำให้ DeepSeek ประหยัดทรัพยากร สามารถอ่านเพิ่มเติมได้ใน EP.2
ต้นทุน Hardware จริง — เปรียบเทียบ 3 ระดับ
มาถึงคำถามที่ทุกคนอยากรู้: ต้องลงทุนเท่าไหร่? เราแบ่งเป็น 3 ระดับตามขนาดองค์กรและจำนวนผู้ใช้:
| ระดับ | โมเดล | Hardware | ราคาประมาณ | เหมาะกับ |
|---|---|---|---|---|
| เริ่มต้น | 7B (Quantized) | Mac Mini M4 Pro 48GB หรือ PC + RTX 4060 | ฿40,000-80,000 | ทดสอบ, 1-5 คนใช้ |
| กลาง | 32B-70B | PC + RTX 4090 24GB หรือ Mac Studio M4 Ultra 192GB | ฿100,000-250,000 | แผนก 10-30 คน |
| Enterprise | 671B (V3/R1) | Server 8xA100 80GB หรือ Mac Cluster | ฿3,000,000-8,000,000 | ทั้งองค์กร 100+ คน |
ที่น่าสนใจคือระดับ "เริ่มต้น" — Mac Mini M4 Pro ราคาเพียง 4 หมื่นบาท สามารถรันโมเดล 7B ได้อย่างลื่นไหล ตอบคำถามได้ใน 1-3 วินาที เหมาะสำหรับองค์กรที่อยากทดลองใช้ AI แบบ Self-host ก่อนตัดสินใจลงทุนจริงจัง ส่วนระดับ Enterprise ที่ต้องรันโมเดลเต็ม 671B Parameters — ราคา Hardware อาจสูงถึง 8 ล้านบาท แต่ถ้าองค์กรใช้ AI volume สูง ก็คุ้มค่ากว่าจ่าย API ระยะยาว
วิธีติดตั้ง DeepSeek แบบ Self-host — Step by Step
วิธีที่ง่ายที่สุดในการเริ่มต้น Self-host DeepSeek คือใช้ Ollama ซึ่งเป็นเครื่องมือ Open-source ที่ทำให้การรัน LLM บนเครื่องของเราง่ายเหมือนรัน Docker — แค่ 3 คำสั่งก็ใช้งานได้:
Step 1: ติดตั้ง Ollama
สำหรับ Linux/macOS เปิด Terminal แล้วรันคำสั่งเดียว:
curl -fsSL https://ollama.com/install.sh | sh
สำหรับ macOS สามารถดาวน์โหลดได้จาก ollama.com โดยตรง หรือใช้ Homebrew: brew install ollama สำหรับ Windows สามารถดาวน์โหลด Installer จากเว็บไซต์ Ollama ได้เลย
Step 2: ดาวน์โหลดโมเดล DeepSeek
เลือกโมเดลที่เหมาะกับ Hardware ของคุณ แล้วรัน:
# โมเดล 7B — เหมาะกับ Laptop/PC ทั่วไป (RAM 8GB+)
ollama pull deepseek-r1:7b
# โมเดล 32B — เหมาะกับ PC ที่มี GPU 24GB+
ollama pull deepseek-r1:32b
# โมเดล 70B — ต้องการ GPU 48GB+ หรือ RAM 96GB+
ollama pull deepseek-r1:70b
Ollama จะดาวน์โหลดโมเดลแบบ Quantized (บีบอัดแล้ว) โดยอัตโนมัติ ซึ่งลดขนาดไฟล์และ RAM ที่ต้องใช้ลงอย่างมาก โดยที่คุณภาพลดลงเพียงเล็กน้อย
Step 3: รันและเริ่มใช้งาน
ollama run deepseek-r1:7b
แค่นี้ก็เริ่มคุยกับ DeepSeek ที่รันบนเครื่องของคุณเองได้แล้ว! ข้อมูลทุกอย่างอยู่ในเครื่อง ไม่มีอะไรส่งออกไปข้างนอกเลย
Step 4: เชื่อมต่อผ่าน API (สำหรับเชื่อมกับระบบอื่น)
Ollama มี API server ในตัว ที่ compatible กับ OpenAI API format — หมายความว่าแอปพลิเคชันที่เชื่อมกับ ChatGPT API สามารถเปลี่ยนมาใช้ Ollama ได้โดยแทบไม่ต้องแก้โค้ด:
curl http://localhost:11434/api/generate \
-d '{"model": "deepseek-r1:7b", "prompt": "สรุปรายงานการเงินนี้ให้หน่อย...", "stream": false}'
นอกจาก Ollama ยังมีทางเลือกอื่นสำหรับการ Self-host ที่เหมาะกับ use case ที่แตกต่างกัน:
| เครื่องมือ | จุดเด่น | เหมาะกับ |
|---|---|---|
| Ollama | ง่ายที่สุด, ติดตั้ง 3 นาที | เริ่มต้น, ทดสอบ, ใช้งานทั่วไป |
| vLLM | เร็วที่สุด, รองรับ concurrent users สูง | Production, Enterprise |
| llama.cpp | เบาที่สุด, รันบน CPU ได้ดี | เครื่องที่ไม่มี GPU |
| Hugging Face TGI | รองรับโมเดลหลากหลาย, มี Dashboard | ทีม Data Science |
เปรียบเทียบค่าใช้จ่าย: Self-host vs API — ใน 1-3 ปี
นี่คือตารางที่ผู้บริหารต้องดู — เปรียบเทียบค่าใช้จ่ายจริงระหว่าง DeepSeek API กับ Self-host ในระยะ 1-3 ปี สมมุติองค์กรใช้ AI ประมาณ 10 ล้าน Tokens ต่อวัน (ประมาณ 20-30 คนใช้งานปกติ):
| รายการ | DeepSeek API | Self-host 7B | Self-host 70B |
|---|---|---|---|
| ค่า Hardware | ฿0 | ฿60,000 (ครั้งเดียว) | ฿200,000 (ครั้งเดียว) |
| ค่า API/เดือน | ~฿3,000 | ฿0 (ค่าไฟ ~฿500) | ฿0 (ค่าไฟ ~฿2,000) |
| ค่าใช้จ่าย 1 ปี | ฿36,000 | ฿66,000 | ฿224,000 |
| ค่าใช้จ่าย 3 ปี | ฿108,000 | ฿78,000 ✅ | ฿272,000 |
| Data Privacy | ❌ ข้อมูลไปจีน | ✅ อยู่ภายใน | ✅ อยู่ภายใน |
หมายเหตุ: ตัวเลขข้างต้นเป็นการประมาณสำหรับ 10M tokens/วัน ถ้าองค์กรใช้ volume สูงกว่านี้ (มากกว่า 50M tokens/วัน) Self-host จะคุ้มทุนเร็วขึ้นมาก — อาจคืนทุนได้ภายใน 6 เดือน เพราะค่า API จะพุ่งขึ้นตามสัดส่วนการใช้งาน แต่ค่า Hardware เป็นค่าคงที่
จากตารางจะเห็นว่า Self-host โมเดล 7B คุ้มค่ากว่า API ตั้งแต่ปีที่ 2 เป็นต้นไป — แม้โมเดลจะเล็กกว่า แต่สำหรับงานทั่วไปอย่างสรุปเอกสาร ตอบคำถาม หรือช่วยเขียนรายงาน ก็ทำได้ดีอย่างน่าพอใจ ส่วนโมเดล 70B มีค่า Hardware สูงกว่า จึงเหมาะกับองค์กรที่ต้องการคุณภาพสูงและยอมรับการลงทุนเริ่มต้นที่มากกว่า
ข้อดี-ข้อเสียของ Self-host DeepSeek
ก่อนตัดสินใจ มาดูข้อดีข้อเสียให้ครบทุกมุม:
| ✅ ข้อดี | ❌ ข้อเสีย |
|---|---|
| Data Privacy 100% — ข้อมูลไม่ออกนอกองค์กรแม้แต่ Byte เดียว | ลงทุนสูง — ต้องซื้อ Hardware ล่วงหน้า โดยเฉพาะ GPU |
| ไม่มี Rate Limit — ใช้ได้เต็มที่ ไม่มีข้อจำกัด Tokens/วัน | ต้องมีทีม IT ดูแล — update, monitoring, troubleshooting |
| Fine-tune ได้ — ปรับโมเดลให้เข้ากับข้อมูลและงานขององค์กร | Update Model เอง — เมื่อ DeepSeek ออกเวอร์ชันใหม่ ต้อง update เอง |
| ไม่กลัว Vendor Lock-in — เปลี่ยนโมเดลได้ตลอดเวลา | คุณภาพ Distill อาจด้อยกว่า Full — โมเดลเล็กทำงานได้ดี แต่ไม่เท่าโมเดล 671B เต็ม |
| ไม่กลัว Outage — ไม่ขึ้นกับ DeepSeek เลย แม้ DeepSeek ล่ม ก็ไม่กระทบ | ใช้ไฟเพิ่ม — GPU Server กินไฟค่อนข้างสูง (ค่าไฟ ฿500-5,000/เดือน) |
| PDPA Compliant — เหมาะกับ องค์กรที่เน้นความปลอดภัย | Latency สูงกว่า — โมเดลใหญ่บน Hardware จำกัด อาจตอบช้ากว่า API |
Security Considerations สำหรับ Self-host
แม้ Self-host จะแก้ปัญหาเรื่องข้อมูลส่งไปจีน แต่ก็ยังมีเรื่อง ความปลอดภัยไซเบอร์ ที่ต้องจัดการ เช่น:
- Network Isolation: เซิร์ฟเวอร์ AI ควรอยู่ใน VLAN แยก ไม่ควรเปิดให้เข้าถึงจาก Internet โดยตรง
- Authentication: ต้องมี API Key หรือ Token สำหรับเข้าใช้งาน ไม่ควรเปิด API แบบ Public
- Logging: บันทึก Log ทุก Request เพื่อตรวจสอบย้อนหลังว่าใครถามอะไร เมื่อไหร่
- Model Integrity: ดาวน์โหลดโมเดลจาก Hugging Face อย่างเป็นทางการเท่านั้น ตรวจสอบ Checksum ทุกครั้ง
- Prompt Injection: ระวังการโจมตีผ่าน Prompt — ใส่ Input Validation ก่อนส่งข้อมูลเข้าโมเดล
องค์กรที่มี แผน Disaster Recovery ที่ดีจะสามารถ Self-host AI ได้อย่างมั่นใจ เพราะมีระบบ Backup และ Recovery พร้อมรองรับปัญหาที่อาจเกิดขึ้น
Real-world Use Cases สำหรับองค์กรไทย
องค์กรไทยหลายแห่งเริ่ม Self-host AI กันแล้ว โดยเฉพาะในอุตสาหกรรมที่ข้อมูลเป็นความลับ:
- โรงพยาบาลเอกชน: ใช้โมเดล 7B สรุปเวชระเบียนภายใน ข้อมูลผู้ป่วยไม่ออกนอกโรงพยาบาลเลย
- สำนักงานกฎหมาย: ใช้โมเดล 32B วิเคราะห์สัญญา ค้นหาข้อความในเอกสารหลายร้อยหน้า
- บริษัทผลิต: ใช้ AI วิเคราะห์ข้อมูลสายการผลิต ลดของเสีย ลดเวลาหยุดเครื่อง — ข้อมูล Production ไม่ควรส่งไปภายนอก
- หน่วยงานราชการ: ข้อมูลราชการส่งไปจีนไม่ได้ Self-host เป็นทางเลือกเดียวที่ใช้ AI ได้
- สถาบันการเงิน: ใช้ AI วิเคราะห์ความเสี่ยง ข้อมูลการเงินอยู่ภายในตามกฎ ธปท.
สำหรับองค์กรที่ใช้ ระบบ ERP อยู่แล้ว การ Self-host AI สามารถเชื่อมต่อกับระบบ ERP เพื่อช่วยวิเคราะห์ข้อมูล สร้างรายงาน หรือตอบคำถามพนักงานเกี่ยวกับข้อมูลในระบบ — ซึ่งเป็นทิศทางที่ อุตสาหกรรม AI กำลังมุ่งไป ในปี 2569
สรุปแนะนำ — เลือกอย่างไรดี?
- งบน้อย + ทดสอบก่อน → เริ่มจาก Ollama + โมเดล 7B บน Mac/PC ที่มีอยู่แล้ว — ฟรีทั้งหมด ลงทุนแค่เวลา
- ใช้จริง 10-30 คน → ลงทุน RTX 4090 + โมเดล 32B — คุณภาพดีพอสำหรับงานวิเคราะห์ สรุป และช่วยเขียน
- Enterprise + Compliance → ลงทุน GPU Server + โมเดล 671B หรือใช้ Mac Cluster — ได้คุณภาพเทียบเท่า API แต่ข้อมูลอยู่ภายใน
- ไม่มีทีม IT → ใช้ API ของ ChatGPT หรือ Claude แทน (ปลอดภัยกว่า DeepSeek API ที่ส่งข้อมูลไปจีน) เพราะมี DPA ชัดเจนและข้อมูลเก็บในสหรัฐฯ
- ข้อมูลเป็นความลับมาก → Self-host เป็นทางเลือกเดียวที่ปลอดภัย ไม่ว่าจะ DeepSeek หรือโมเดลอื่น
DeepSeek Series — อ่านต่อ
DeepSeek Series — 5 ตอนรู้ลึก AI จากจีน:
- EP.1: DeepSeek คืออะไร? — AI จีนที่เขย่าวงการโลก
- EP.2: Mixture of Experts — เทคนิคที่ทำให้ถูก 10 เท่า
- EP.3: ความเสี่ยง AI จากจีน — สิ่งที่องค์กรไทยต้องรู้
- EP.4: รัน DeepSeek ในองค์กรเอง — คุ้มไหม? ต้องใช้อะไรบ้าง? (บทความนี้)
- EP.5: ใช้ DeepSeek ช่วยงาน ERP ได้จริงไหม?
Self-host AI ไม่ใช่เรื่องไกลตัวอีกต่อไป — Mac Mini ราคา 4 หมื่นบาทก็รัน AI ที่เก่งกว่า ChatGPT เมื่อ 2 ปีก่อนได้แล้ว
- ทีมงาน Saeree ERP
