02-347-7730  |  Saeree ERP - ระบบ ERP ครบวงจรสำหรับธุรกิจไทย ติดต่อเรา

สร้าง Apple Mac Cluster รัน AI ในออฟฟิศ

สร้าง Apple Mac Cluster รัน AI ในออฟฟิศ — คู่มือ Step-by-Step
  • 8
  • มีนาคม

อยากรัน AI Model ขนาดใหญ่ในออฟฟิศ โดยไม่ต้องพึ่ง Cloud? ตอนนี้ทำได้แล้ว — เอา Mac หลายเครื่องมาต่อกันผ่าน Thunderbolt 5 แล้วใช้ซอฟต์แวร์ Exo Labs รวม Unified Memory ทุกเครื่องเป็นก้อนเดียว สามารถรัน AI Model ตั้งแต่ 70B ไปจนถึง 1 Trillion parameters แบบ local, private, ข้อมูลไม่ออกนอกออฟฟิศ

สรุปง่ายๆ: Mac Cluster 2 เครื่อง เริ่มต้น ~฿172,000 ได้ RAM 128GB รัน AI 70B ได้ | เทียบกับ NVIDIA H100 ที่ต้องใช้งบ ฿28 ล้าน+ สำหรับสเปคเทียบเท่า — ถูกกว่า 15 เท่า

Mac Cluster คืออะไร?

Mac Cluster คือการเอา Mac หลายเครื่องมาเชื่อมต่อกันด้วยสาย Thunderbolt 5 แล้วใช้เทคโนโลยี RDMA (Remote Direct Memory Access) ที่ Apple เปิดให้ใช้ใน macOS Tahoe 26.2 ทำให้ทุกเครื่องทำงานเหมือนเป็นเครื่องเดียว — Unified Memory จากทุก node ถูกรวมเป็นก้อนเดียว สำหรับรัน AI Model ขนาดใหญ่ ที่เครื่องเดียวไม่พอ

เทคโนโลยี RDMA ลด latency จาก 300 microsecond เหลือเพียง 3-9 microsecond ทำให้ทุก node ทำงานพร้อมกันแบบ Tensor Parallelism แทนที่จะรอต่อคิวแบบเดิม

ทำอะไรได้บ้าง?

Use Case ตัวอย่าง Model ความเร็ว (4-node)
Chatbot / Assistant Llama 3.3 70B ~16 tokens/s
Coding Assistant Qwen 480B Coder ~40 tokens/s
Reasoning / Analysis DeepSeek V3.1 671B ~25-27 tokens/s
Mega Model Kimi K2 (1T params, MoE) ~28-34 tokens/s
Small & Fast Llama 3.2 3B ~240 tokens/s
Code Review Devstral 123B ~22 tokens/s

จุดเด่นที่ต้องรู้: รันได้ 5+ models พร้อมกัน | Expose เป็น OpenAI-compatible API ใช้กับ Open WebUI, Cursor, Continue ได้เลย | Data อยู่ในออฟฟิศ 100% ไม่ส่งออก Cloud เหมาะกับ PDPA / compliance

ลงทุนเท่าไหร่? — 3 ระดับงบประมาณ

ระดับ 1: Starter — ลองเล่น (~฿172,000)

รายการ จำนวน ราคาประมาณ
Mac mini M4 Pro 64GB (14-core CPU, 20-core GPU, 1TB) 2 เครื่อง ฿164,000 (฿82,000 x 2)
Thunderbolt 5 cable 1 เส้น ฿3,000
Ethernet switch 10GbE 1 ตัว ฿5,000
รวม ~฿172,000

RAM รวม 128GB — รัน Llama 3.3 70B, Devstral 123B (4-bit) ได้สบาย | กินไฟ < 200W | เหมาะทีม 10-20 คน

ระดับ 2: Professional — ใช้งานจริง (~฿1,200,000)

รายการ จำนวน ราคาประมาณ
Mac Studio M3 Ultra 192GB 4 เครื่อง ฿1,120,000 (฿280,000 x 4)
Thunderbolt 5 cables (mesh) 6 เส้น ฿18,000
Ethernet switch 10GbE 1 ตัว ฿5,000
รวม ~฿1,143,000

RAM รวม 768GB — รัน DeepSeek V3.1 671B ได้ | กินไฟ ~600W peak | เหมาะองค์กร 50-100 คน

ระดับ 3: Enterprise — Full Power (~฿1,800,000)

รายการ จำนวน ราคาประมาณ
Mac Studio M3 Ultra 256GB 4 เครื่อง ฿1,760,000 (฿440,000 x 4)
Thunderbolt 5 cables (mesh) 6 เส้น ฿18,000
Ethernet switch 10GbE 1 ตัว ฿5,000
รวม ~฿1,783,000

RAM รวม 1TB — รัน Kimi K2 (1 Trillion params) ได้ | กินไฟ ~600W peak (idle ~66W) | เหมาะองค์กร 100-200 คน

หมายเหตุ: ตัวเลือก 512GB/เครื่อง (2TB รวม) Apple ถอดออกจาก store เมื่อ 5 มีนาคม 2569 เนื่องจากขาดแคลน DRAM ทั่วโลก — ตัว 256GB คือ max ที่สั่งได้ ณ ตอนนี้ (ราคาสูงสุดใน Apple TH คือ ฿440,380)

สเปค Mac mini M4 Pro 64GB — ตัวที่แนะนำสำหรับ Starter

รายละเอียด สเปค
ชิป Apple M4 Pro
CPU 14-core (10 performance + 4 efficiency)
GPU 20-core
Neural Engine 16-core
Unified Memory 64GB
Memory Bandwidth 273 GB/s
Storage 1TB SSD
Thunderbolt Thunderbolt 5 x 3 พอร์ต (120 Gb/s)
Ethernet Gigabit (อัพเกรดเป็น 10GbE ได้ตอนสั่ง)
ราคา $2,399 / ~฿82,000-85,000

สำคัญ: ต้องเป็น M4 Pro เท่านั้น ถึงจะได้ Thunderbolt 5 — ตัว M4 ธรรมดาเป็น Thunderbolt 4 (ใช้ RDMA ไม่ได้) และ Mac mini 64GB ต้อง สั่ง CTO (Configure to Order) ผ่าน Apple Online Store ไม่มีวางหน้าร้าน รอส่ง 2-4 สัปดาห์

Mac Cluster vs NVIDIA GPU — เทียบตรงๆ

Mac Cluster (4x M3 Ultra 256GB) NVIDIA H100 (เทียบเท่า)
ราคา ~฿1.8 ล้าน (ครั้งเดียว) ~฿28 ล้าน+ ($780K+)
RAM รวม 1TB unified 640GB HBM3
กินไฟ peak ~600W ~5,600W
ค่าไฟ/เดือน ~฿1,500 ~฿14,000
เสียง เงียบมาก วางบนโต๊ะได้ ต้องมีห้อง server
Training ไม่เหมาะ เหมาะ
Inference ดีมาก ดีมาก

สรุป: Mac Cluster ถูกกว่า ~15 เท่า สำหรับ inference (รัน model) แต่ไม่เหมาะ training (สอน model) ถ้าองค์กรต้องการ ความปลอดภัยของข้อมูล และไม่อยากส่งข้อมูลขึ้น Cloud — Mac Cluster เป็นตัวเลือกที่คุ้มค่ามาก

Step-by-Step ติดตั้ง Mac AI Cluster

Step 1: เตรียม Hardware และต่อสาย

ต่อ Mac ทุกเครื่องด้วย Thunderbolt 5 แบบ ring/mesh topology + ต่อ Ethernet แยกสำหรับ management

Mac A ──TB5──▸ Mac B
  │               │
  TB5            TB5
  │               │
Mac D ◂──TB5── Mac C

+ Ethernet switch เชื่อมทุกเครื่อง (สำหรับ SSH / API)

สำคัญ: Mac Studio ห้ามใช้พอร์ต TB5 ที่อยู่ติดกับ Ethernet port | สำหรับ 2 เครื่อง ใช้สาย TB5 เส้นเดียวต่อตรงได้เลย

Step 2: เปิด RDMA (ทำทุกเครื่อง)

# 1. ปิดเครื่อง
# 2. กดปุ่ม Power ค้าง 10 วินาที → เข้า Recovery Mode
# 3. เปิด Terminal จากเมนู Utilities
rdma_ctl enable
# 4. Restart ปกติ

ต้องทำจากหน้าเครื่อง (physical access) — Apple ตั้งใจให้เป็น security gate ป้องกันการเปิดจากระยะไกล

Step 3: ตั้ง Admin User (ทุกเครื่อง)

sudo dscl . -create /Users/clusteradmin
sudo dscl . -create /Users/clusteradmin UserShell /bin/zsh
sudo dscl . -passwd /Users/clusteradmin [รหัสผ่านที่ปลอดภัย]
sudo dscl . -append /Groups/admin GroupMembership clusteradmin

เปิด SSH: System Settings → General → Sharing → Remote Login (เลือก admins only)

Step 4: ตั้ง SSH Key (จากเครื่อง controller)

ssh-keygen -t ed25519 -C "cluster@company.com"
ssh-copy-id clusteradmin@mac-studio-01
ssh-copy-id clusteradmin@mac-studio-02

Step 5: ติดตั้ง Python + MLX (ทุกเครื่อง)

brew install miniconda
conda create -n exo python=3.11
conda activate exo
pip install mlx mlx-lm

# ทดสอบ
python -c "import mlx.core as mx; print(mx.metal.device_info())"

Step 6: ติดตั้ง Exo Labs (ทุกเครื่อง)

conda activate exo
git clone https://github.com/exo-explore/exo.git
cd exo && pip install -e .
exo start

Exo จะ auto-discover ทุก node บน network — Dashboard อยู่ที่ http://localhost:52415 | ตั้ง Transport = MLX RDMA, Strategy = Tensor Parallel

Step 7: ทดสอบ Cluster

# เช็คว่าเจอทุกเครื่อง
exo devices list
exo cluster status

# เช็ค RDMA ทำงาน
python -c "import mlx.core as mx; print(mx.distributed.is_available())"
# ต้องได้: True

# โหลด model ทดสอบ
exo model load mistral-7b-instruct
exo model infer mistral-7b-instruct \
  --prompt "สวัสดี อธิบาย RDMA แบบง่ายๆ" \
  --max-tokens 200

Step 8: โหลด Model ใหญ่ — Production

exo model load deepseek-v3.1-8bit     # 671B params
exo model load qwen-480b-coder        # สำหรับ coding
exo model load kimmi-k2-1t-moe        # 1 Trillion params

Health Check ประจำวัน

for host in mac-studio-{01..04}; do
  ssh clusteradmin@$host 'uptime' || echo "$host unreachable"
done
exo cluster status

ข้อจำกัดที่ต้องรู้ก่อนลงทุน

ข้อจำกัด รายละเอียด
Inference เท่านั้น ไม่เหมาะ training model (ช้ากว่า NVIDIA มาก)
ต้อง Thunderbolt 5 M1/M2 หรือ TB4 จะ fallback เป็น TCP/IP (ช้ามาก)
macOS Tahoe 26.2+ ต้องรอ stable version ออกก่อน (ตอนนี้ยัง beta)
Exo Labs ยัง early-stage อัพเดทบ่อย อาจมี breaking changes
512GB/เครื่อง ถูกถอดแล้ว Max คือ 256GB ต่อเครื่อง (ณ มีนาคม 2569)

เหมาะกับใคร?

Mac AI Cluster เหมาะกับองค์กรที่ต้องการ:

  • ความเป็นส่วนตัว — ข้อมูลไม่ออกนอกออฟฟิศ เหมาะ PDPA, GDPR
  • ประหยัดค่า Cloud — ไม่ต้องจ่าย API รายเดือน (GPT-4, Claude ราคาแพง)
  • Customization — เลือก model ที่เหมาะกับงานได้เอง
  • Multiple models — รัน 5+ models พร้อมกันสำหรับงานต่างประเภท

สำหรับองค์กรที่ใช้ ระบบ ERP อยู่แล้ว การมี AI cluster ในออฟฟิศจะช่วยให้สามารถวิเคราะห์ข้อมูลภายใน Data Warehouse ได้อย่างปลอดภัย โดยไม่ต้องส่งข้อมูลทางธุรกิจออกไปยัง Cloud ภายนอก

คำแนะนำ: ถ้าเริ่มต้น แนะนำ Mac mini M4 Pro 64GB x 2 เครื่อง (~฿172,000) ลองก่อน — ถ้าใช้งานได้ดีค่อย scale ขึ้นเป็น Mac Studio M3 Ultra ทีหลัง ไม่ต้องลงทุนหนักตั้งแต่แรก

สรุป — ควรลงทุนไหม?

ระดับ งบ RAM รวม รัน Model ได้ถึง เหมาะกับ
Starter ฿172K 128GB 70B ทีมเล็ก / ทดลอง
Professional ฿1.14M 768GB 671B องค์กรขนาดกลาง
Enterprise ฿1.78M 1TB 1T (MoE) องค์กรขนาดใหญ่

"Mac Cluster ไม่ได้แค่ถูกกว่า NVIDIA 15 เท่า — มันเปลี่ยนเกมตรงที่องค์กรขนาดเล็กก็เข้าถึง AI ระดับ enterprise ได้ โดยไม่ต้องมีห้อง server หรือทีม DevOps"

แหล่งอ้างอิง

สนใจระบบ ERP สำหรับองค์กรของคุณ?

ปรึกษาผู้เชี่ยวชาญจาก Grand Linux Solution ฟรี ไม่มีค่าใช้จ่าย

ขอ Demo ฟรี

โทร 02-347-7730 | sale@grandlinux.com

Saeree ERP Team

เกี่ยวกับผู้เขียน

ทีมงานผู้เชี่ยวชาญด้านระบบ ERP จากบริษัท แกรนด์ลีนุกซ์ โซลูชั่น จำกัด พร้อมให้คำปรึกษาและบริการด้านระบบ ERP ครบวงจร