02-347-7730  |  Saeree ERP - ระบบ ERP ครบวงจรสำหรับธุรกิจไทย ติดต่อเรา

รัน DeepSeek ในองค์กรเอง

รัน DeepSeek ในองค์กรเอง Self-host AI On-premise
  • 31
  • มีนาคม

DeepSeek Series EP.4
ใน EP.3 ของ DeepSeek Series เราได้อธิบายไปแล้วว่าการส่งข้อมูลไปยังเซิร์ฟเวอร์ DeepSeek ในจีนมีความเสี่ยงด้าน Data Privacy อย่างมาก — ตั้งแต่กฎหมาย National Intelligence Law ไปจนถึงเรื่อง PDPA ของไทย แต่ถ้าเราไม่ส่งข้อมูลออกไปเลยล่ะ? ถ้าเราดาวน์โหลดโมเดล DeepSeek มารันบนเซิร์ฟเวอร์ขององค์กรเอง — ข้อมูลไม่ออกนอกเครือข่ายภายในแม้แต่ Byte เดียว — นี่คือแนวคิดของ Self-host AI ซึ่งเป็นคำตอบสำหรับองค์กรที่ต้องการใช้ AI แบบ Open-source โดยไม่ต้องเสี่ยงเรื่องข้อมูลรั่วไหล

แต่ Self-host ไม่ได้ฟรี — ต้องลงทุน Hardware ต้องมีทีม IT ดูแล และต้องเข้าใจข้อจำกัดของโมเดลแต่ละขนาด บทความนี้จะพาคุณดูทุกมุมของการ Self-host DeepSeek ตั้งแต่ โมเดลไหนรันได้บน Laptop ไปจนถึง ต้องลงทุนกี่ล้านบาทสำหรับ Enterprise พร้อมวิธีติดตั้ง Step-by-Step ที่ทำตามได้จริง

สรุปสั้น — Self-host DeepSeek คืออะไร?

  • Self-host DeepSeek = ดาวน์โหลดโมเดลมารันบนเซิร์ฟเวอร์ขององค์กรเอง ข้อมูลไม่ออกนอกเครือข่ายภายใน
  • ต้องการ RAM 4-512GB+ ขึ้นกับขนาดโมเดลที่เลือก (ตั้งแต่ 1.5B ถึง 671B Parameters)
  • เริ่มต้นจาก DeepSeek-R1-Distill-Qwen-7B ซึ่งรันบน Laptop ได้เลย! ไปจนถึง V3 671B สำหรับ Enterprise
  • คุ้มค่าสำหรับองค์กรที่ใช้ AI volume สูง (มากกว่า $500/เดือน ค่า API) — Self-host คืนทุนได้ใน 1-2 ปี
  • ติดตั้งง่ายที่สุดผ่าน Ollama — 3 คำสั่งก็เริ่มใช้งานได้

Self-host คืออะไร? ต่างจากใช้ API อย่างไร?

ก่อนจะลงรายละเอียด มาทำความเข้าใจก่อนว่า "Self-host" กับ "ใช้ API" ต่างกันอย่างไร เพราะสองทางเลือกนี้มีข้อดีข้อเสียที่ต่างกันมาก และการเลือกผิดอาจทำให้องค์กรเสียทั้งเงินและเวลาโดยไม่จำเป็น

หัวข้อ API (Cloud) Self-host (On-premise)
ข้อมูลอยู่ที่ เซิร์ฟเวอร์ DeepSeek (จีน) เซิร์ฟเวอร์ขององค์กร
ค่าใช้จ่าย จ่ายตามใช้ (per token) ลงทุน Hardware ครั้งเดียว
Data Privacy ข้อมูลส่งออกนอกองค์กร ข้อมูลอยู่ภายใน 100%
Customization จำกัด — ใช้ได้ตามที่ DeepSeek เปิดให้ Fine-tune ได้ตามต้องการ
Maintenance ไม่ต้องดูแลเอง ต้องมีทีม IT ดูแล
Uptime พึ่งพา DeepSeek (เคย ล่ม 7 ชั่วโมง) ควบคุมเอง 100%

พูดง่ายๆ คือ API เหมือน เช่าใช้ AI — สะดวก ไม่ต้องดูแล แต่ข้อมูลออกนอกองค์กร ส่วน Self-host เหมือน ซื้อ AI มาไว้ที่บ้าน — ลงทุนครั้งเดียว ข้อมูลอยู่กับเรา แต่ต้องดูแลเอง ซึ่งเป็นแนวคิดเดียวกับระบบ ERP แบบ On-premise ที่หลายองค์กรคุ้นเคย

โมเดล DeepSeek ที่ Self-host ได้ — จาก Laptop ถึง Data Center

DeepSeek เปิดให้ดาวน์โหลดโมเดลหลายขนาด ตั้งแต่โมเดลเล็กจิ๋วที่รันบน Laptop ได้ ไปจนถึงโมเดลยักษ์ที่ต้องใช้ GPU Server ราคาหลายล้าน ตารางนี้เป็นตารางสำคัญที่สุดในบทความ — เก็บไว้อ้างอิงได้เลย:

โมเดล ขนาด RAM ที่ต้องการ GPU เหมาะกับ
R1-Distill-Qwen-1.5B 1.5B 4GB ไม่จำเป็น (CPU ได้) ทดสอบ, เรียนรู้
R1-Distill-Qwen-7B 7B 8-16GB GPU 8GB+ หรือ CPU Chatbot ง่ายๆ, สรุปเอกสาร
R1-Distill-Qwen-32B 32B 24-48GB GPU 24GB+ (RTX 4090) งานวิเคราะห์ระดับกลาง
R1-Distill-Llama-70B 70B 48-96GB GPU 2x48GB (A6000) งานที่ต้องการคุณภาพสูง
DeepSeek-V3 (full) 671B 350-500GB+ 8xA100/H100 80GB Enterprise, production
DeepSeek-R1 (full) 671B 350-500GB+ 8xA100/H100 80GB Reasoning tasks ระดับสูง

สิ่งที่น่าสนใจคือ โมเดลขนาด 7B ที่ผ่านการ Distill (กลั่น) จากโมเดลใหญ่ ให้ผลลัพธ์ที่ดีอย่างน่าประหลาดใจ — หลาย Benchmark ทำคะแนนได้ดีกว่า ChatGPT เวอร์ชัน GPT-3.5 ที่เคยเป็นมาตรฐาน AI เมื่อ 2 ปีก่อน ทั้งที่รันได้บน Laptop ธรรมดา สำหรับรายละเอียดเทคนิค Mixture of Experts (MoE) ที่ทำให้ DeepSeek ประหยัดทรัพยากร สามารถอ่านเพิ่มเติมได้ใน EP.2

ต้นทุน Hardware จริง — เปรียบเทียบ 3 ระดับ

มาถึงคำถามที่ทุกคนอยากรู้: ต้องลงทุนเท่าไหร่? เราแบ่งเป็น 3 ระดับตามขนาดองค์กรและจำนวนผู้ใช้:

ระดับ โมเดล Hardware ราคาประมาณ เหมาะกับ
เริ่มต้น 7B (Quantized) Mac Mini M4 Pro 48GB หรือ PC + RTX 4060 ฿40,000-80,000 ทดสอบ, 1-5 คนใช้
กลาง 32B-70B PC + RTX 4090 24GB หรือ Mac Studio M4 Ultra 192GB ฿100,000-250,000 แผนก 10-30 คน
Enterprise 671B (V3/R1) Server 8xA100 80GB หรือ Mac Cluster ฿3,000,000-8,000,000 ทั้งองค์กร 100+ คน

ที่น่าสนใจคือระดับ "เริ่มต้น" — Mac Mini M4 Pro ราคาเพียง 4 หมื่นบาท สามารถรันโมเดล 7B ได้อย่างลื่นไหล ตอบคำถามได้ใน 1-3 วินาที เหมาะสำหรับองค์กรที่อยากทดลองใช้ AI แบบ Self-host ก่อนตัดสินใจลงทุนจริงจัง ส่วนระดับ Enterprise ที่ต้องรันโมเดลเต็ม 671B Parameters — ราคา Hardware อาจสูงถึง 8 ล้านบาท แต่ถ้าองค์กรใช้ AI volume สูง ก็คุ้มค่ากว่าจ่าย API ระยะยาว

วิธีติดตั้ง DeepSeek แบบ Self-host — Step by Step

วิธีที่ง่ายที่สุดในการเริ่มต้น Self-host DeepSeek คือใช้ Ollama ซึ่งเป็นเครื่องมือ Open-source ที่ทำให้การรัน LLM บนเครื่องของเราง่ายเหมือนรัน Docker — แค่ 3 คำสั่งก็ใช้งานได้:

Step 1: ติดตั้ง Ollama

สำหรับ Linux/macOS เปิด Terminal แล้วรันคำสั่งเดียว:

curl -fsSL https://ollama.com/install.sh | sh

สำหรับ macOS สามารถดาวน์โหลดได้จาก ollama.com โดยตรง หรือใช้ Homebrew: brew install ollama สำหรับ Windows สามารถดาวน์โหลด Installer จากเว็บไซต์ Ollama ได้เลย

Step 2: ดาวน์โหลดโมเดล DeepSeek

เลือกโมเดลที่เหมาะกับ Hardware ของคุณ แล้วรัน:

# โมเดล 7B — เหมาะกับ Laptop/PC ทั่วไป (RAM 8GB+)
ollama pull deepseek-r1:7b

# โมเดล 32B — เหมาะกับ PC ที่มี GPU 24GB+
ollama pull deepseek-r1:32b

# โมเดล 70B — ต้องการ GPU 48GB+ หรือ RAM 96GB+
ollama pull deepseek-r1:70b

Ollama จะดาวน์โหลดโมเดลแบบ Quantized (บีบอัดแล้ว) โดยอัตโนมัติ ซึ่งลดขนาดไฟล์และ RAM ที่ต้องใช้ลงอย่างมาก โดยที่คุณภาพลดลงเพียงเล็กน้อย

Step 3: รันและเริ่มใช้งาน

ollama run deepseek-r1:7b

แค่นี้ก็เริ่มคุยกับ DeepSeek ที่รันบนเครื่องของคุณเองได้แล้ว! ข้อมูลทุกอย่างอยู่ในเครื่อง ไม่มีอะไรส่งออกไปข้างนอกเลย

Step 4: เชื่อมต่อผ่าน API (สำหรับเชื่อมกับระบบอื่น)

Ollama มี API server ในตัว ที่ compatible กับ OpenAI API format — หมายความว่าแอปพลิเคชันที่เชื่อมกับ ChatGPT API สามารถเปลี่ยนมาใช้ Ollama ได้โดยแทบไม่ต้องแก้โค้ด:

curl http://localhost:11434/api/generate \
  -d '{"model": "deepseek-r1:7b", "prompt": "สรุปรายงานการเงินนี้ให้หน่อย...", "stream": false}'

นอกจาก Ollama ยังมีทางเลือกอื่นสำหรับการ Self-host ที่เหมาะกับ use case ที่แตกต่างกัน:

เครื่องมือ จุดเด่น เหมาะกับ
Ollama ง่ายที่สุด, ติดตั้ง 3 นาที เริ่มต้น, ทดสอบ, ใช้งานทั่วไป
vLLM เร็วที่สุด, รองรับ concurrent users สูง Production, Enterprise
llama.cpp เบาที่สุด, รันบน CPU ได้ดี เครื่องที่ไม่มี GPU
Hugging Face TGI รองรับโมเดลหลากหลาย, มี Dashboard ทีม Data Science

เปรียบเทียบค่าใช้จ่าย: Self-host vs API — ใน 1-3 ปี

นี่คือตารางที่ผู้บริหารต้องดู — เปรียบเทียบค่าใช้จ่ายจริงระหว่าง DeepSeek API กับ Self-host ในระยะ 1-3 ปี สมมุติองค์กรใช้ AI ประมาณ 10 ล้าน Tokens ต่อวัน (ประมาณ 20-30 คนใช้งานปกติ):

รายการ DeepSeek API Self-host 7B Self-host 70B
ค่า Hardware ฿0 ฿60,000 (ครั้งเดียว) ฿200,000 (ครั้งเดียว)
ค่า API/เดือน ~฿3,000 ฿0 (ค่าไฟ ~฿500) ฿0 (ค่าไฟ ~฿2,000)
ค่าใช้จ่าย 1 ปี ฿36,000 ฿66,000 ฿224,000
ค่าใช้จ่าย 3 ปี ฿108,000 ฿78,000 ฿272,000
Data Privacy ❌ ข้อมูลไปจีน ✅ อยู่ภายใน ✅ อยู่ภายใน

หมายเหตุ: ตัวเลขข้างต้นเป็นการประมาณสำหรับ 10M tokens/วัน ถ้าองค์กรใช้ volume สูงกว่านี้ (มากกว่า 50M tokens/วัน) Self-host จะคุ้มทุนเร็วขึ้นมาก — อาจคืนทุนได้ภายใน 6 เดือน เพราะค่า API จะพุ่งขึ้นตามสัดส่วนการใช้งาน แต่ค่า Hardware เป็นค่าคงที่

จากตารางจะเห็นว่า Self-host โมเดล 7B คุ้มค่ากว่า API ตั้งแต่ปีที่ 2 เป็นต้นไป — แม้โมเดลจะเล็กกว่า แต่สำหรับงานทั่วไปอย่างสรุปเอกสาร ตอบคำถาม หรือช่วยเขียนรายงาน ก็ทำได้ดีอย่างน่าพอใจ ส่วนโมเดล 70B มีค่า Hardware สูงกว่า จึงเหมาะกับองค์กรที่ต้องการคุณภาพสูงและยอมรับการลงทุนเริ่มต้นที่มากกว่า

ข้อดี-ข้อเสียของ Self-host DeepSeek

ก่อนตัดสินใจ มาดูข้อดีข้อเสียให้ครบทุกมุม:

✅ ข้อดี ❌ ข้อเสีย
Data Privacy 100% — ข้อมูลไม่ออกนอกองค์กรแม้แต่ Byte เดียว ลงทุนสูง — ต้องซื้อ Hardware ล่วงหน้า โดยเฉพาะ GPU
ไม่มี Rate Limit — ใช้ได้เต็มที่ ไม่มีข้อจำกัด Tokens/วัน ต้องมีทีม IT ดูแล — update, monitoring, troubleshooting
Fine-tune ได้ — ปรับโมเดลให้เข้ากับข้อมูลและงานขององค์กร Update Model เอง — เมื่อ DeepSeek ออกเวอร์ชันใหม่ ต้อง update เอง
ไม่กลัว Vendor Lock-in — เปลี่ยนโมเดลได้ตลอดเวลา คุณภาพ Distill อาจด้อยกว่า Full — โมเดลเล็กทำงานได้ดี แต่ไม่เท่าโมเดล 671B เต็ม
ไม่กลัว Outage — ไม่ขึ้นกับ DeepSeek เลย แม้ DeepSeek ล่ม ก็ไม่กระทบ ใช้ไฟเพิ่ม — GPU Server กินไฟค่อนข้างสูง (ค่าไฟ ฿500-5,000/เดือน)
PDPA Compliant — เหมาะกับ องค์กรที่เน้นความปลอดภัย Latency สูงกว่า — โมเดลใหญ่บน Hardware จำกัด อาจตอบช้ากว่า API

Security Considerations สำหรับ Self-host

แม้ Self-host จะแก้ปัญหาเรื่องข้อมูลส่งไปจีน แต่ก็ยังมีเรื่อง ความปลอดภัยไซเบอร์ ที่ต้องจัดการ เช่น:

  • Network Isolation: เซิร์ฟเวอร์ AI ควรอยู่ใน VLAN แยก ไม่ควรเปิดให้เข้าถึงจาก Internet โดยตรง
  • Authentication: ต้องมี API Key หรือ Token สำหรับเข้าใช้งาน ไม่ควรเปิด API แบบ Public
  • Logging: บันทึก Log ทุก Request เพื่อตรวจสอบย้อนหลังว่าใครถามอะไร เมื่อไหร่
  • Model Integrity: ดาวน์โหลดโมเดลจาก Hugging Face อย่างเป็นทางการเท่านั้น ตรวจสอบ Checksum ทุกครั้ง
  • Prompt Injection: ระวังการโจมตีผ่าน Prompt — ใส่ Input Validation ก่อนส่งข้อมูลเข้าโมเดล

องค์กรที่มี แผน Disaster Recovery ที่ดีจะสามารถ Self-host AI ได้อย่างมั่นใจ เพราะมีระบบ Backup และ Recovery พร้อมรองรับปัญหาที่อาจเกิดขึ้น

Real-world Use Cases สำหรับองค์กรไทย

องค์กรไทยหลายแห่งเริ่ม Self-host AI กันแล้ว โดยเฉพาะในอุตสาหกรรมที่ข้อมูลเป็นความลับ:

  • โรงพยาบาลเอกชน: ใช้โมเดล 7B สรุปเวชระเบียนภายใน ข้อมูลผู้ป่วยไม่ออกนอกโรงพยาบาลเลย
  • สำนักงานกฎหมาย: ใช้โมเดล 32B วิเคราะห์สัญญา ค้นหาข้อความในเอกสารหลายร้อยหน้า
  • บริษัทผลิต: ใช้ AI วิเคราะห์ข้อมูลสายการผลิต ลดของเสีย ลดเวลาหยุดเครื่อง — ข้อมูล Production ไม่ควรส่งไปภายนอก
  • หน่วยงานราชการ: ข้อมูลราชการส่งไปจีนไม่ได้ Self-host เป็นทางเลือกเดียวที่ใช้ AI ได้
  • สถาบันการเงิน: ใช้ AI วิเคราะห์ความเสี่ยง ข้อมูลการเงินอยู่ภายในตามกฎ ธปท.

สำหรับองค์กรที่ใช้ ระบบ ERP อยู่แล้ว การ Self-host AI สามารถเชื่อมต่อกับระบบ ERP เพื่อช่วยวิเคราะห์ข้อมูล สร้างรายงาน หรือตอบคำถามพนักงานเกี่ยวกับข้อมูลในระบบ — ซึ่งเป็นทิศทางที่ อุตสาหกรรม AI กำลังมุ่งไป ในปี 2569

สรุปแนะนำ — เลือกอย่างไรดี?

  • งบน้อย + ทดสอบก่อน → เริ่มจาก Ollama + โมเดล 7B บน Mac/PC ที่มีอยู่แล้ว — ฟรีทั้งหมด ลงทุนแค่เวลา
  • ใช้จริง 10-30 คน → ลงทุน RTX 4090 + โมเดล 32B — คุณภาพดีพอสำหรับงานวิเคราะห์ สรุป และช่วยเขียน
  • Enterprise + Compliance → ลงทุน GPU Server + โมเดล 671B หรือใช้ Mac Cluster — ได้คุณภาพเทียบเท่า API แต่ข้อมูลอยู่ภายใน
  • ไม่มีทีม IT → ใช้ API ของ ChatGPT หรือ Claude แทน (ปลอดภัยกว่า DeepSeek API ที่ส่งข้อมูลไปจีน) เพราะมี DPA ชัดเจนและข้อมูลเก็บในสหรัฐฯ
  • ข้อมูลเป็นความลับมาก → Self-host เป็นทางเลือกเดียวที่ปลอดภัย ไม่ว่าจะ DeepSeek หรือโมเดลอื่น

DeepSeek Series — อ่านต่อ

DeepSeek Series — 5 ตอนรู้ลึก AI จากจีน:

Self-host AI ไม่ใช่เรื่องไกลตัวอีกต่อไป — Mac Mini ราคา 4 หมื่นบาทก็รัน AI ที่เก่งกว่า ChatGPT เมื่อ 2 ปีก่อนได้แล้ว

- ทีมงาน Saeree ERP

แหล่งอ้างอิง

สนใจระบบ ERP สำหรับองค์กรของคุณ?

ปรึกษาผู้เชี่ยวชาญจาก Grand Linux Solution ฟรี ไม่มีค่าใช้จ่าย

ขอ Demo ฟรี

โทร 02-347-7730 | sale@grandlinux.com

Saeree ERP Author

เกี่ยวกับผู้เขียน

ไพฑูรย์ บุตรี

ผู้เชี่ยวชาญด้านระบบเน็ตเวิร์คและระบบความปลอดภัยเซิร์ฟเวอร์ บริษัท แกรนด์ลีนุกซ์ โซลูชั่น จำกัด