- 2
- เมษายน
Ollama Series EP.2 — จาก EP.1 ที่เราอธิบายว่า Ollama คืออะไร ตอนนี้ถึงเวลาลงมือจริง! บทความนี้จะพาคุณติดตั้ง Ollama ตั้งแต่ต้น ไม่ว่าจะใช้ macOS, Windows หรือ Linux — พร้อมรัน AI Model ตัวแรกให้สำเร็จภายใน 5 นาที รวมถึงคำสั่งพื้นฐานที่ต้องรู้ วิธีเลือก Model ให้เหมาะกับเครื่อง และวิธีแก้ปัญหาที่พบบ่อย
สรุปสั้น — ติดตั้ง Ollama ง่ายกว่าที่คิด
- macOS: ดาวน์โหลด .dmg จากเว็บ → ลากลง Applications → เสร็จ
- Windows: ดาวน์โหลด .exe → ติดตั้ง → เสร็จ
- Linux: คำสั่งเดียว
curl -fsSL https://ollama.com/install.sh | sh - รัน Model แรก:
ollama run llama3.1— ได้ AI Chatbot ทันที - ใช้เวลาติดตั้ง < 5 นาที (ไม่รวมเวลาดาวน์โหลด Model)
System Requirements — เครื่องแบบไหนรันได้?
ก่อนติดตั้ง ต้องเช็คก่อนว่าเครื่องของคุณรองรับหรือไม่ Ollama ไม่ได้ต้องการเครื่องแรงมาก — Notebook ทั่วไปที่มี RAM 8 GB ก็รัน Model ขนาด 7-8B ได้ แต่ถ้ามี GPU จะเร็วขึ้นอย่างมาก
| รายการ | ขั้นต่ำ | แนะนำ | สำหรับองค์กร |
|---|---|---|---|
| OS | macOS 11+, Windows 10+, Linux | macOS 14+, Windows 11, Ubuntu 22.04+ | Ubuntu 22.04 LTS Server |
| RAM | 8 GB | 16 GB | 64-128 GB |
| พื้นที่ว่าง | 10 GB | 50 GB | 500 GB+ SSD |
| CPU | x86_64 หรือ Apple Silicon | Apple M1+ หรือ Intel i7+ | AMD EPYC / Intel Xeon |
| GPU (ไม่บังคับ) | ไม่ต้องมี (ใช้ CPU ได้) | NVIDIA RTX 3060+ (VRAM 8 GB+) | NVIDIA RTX 4090 / A100 (VRAM 24-80 GB) |
| Model ที่รันได้ | 7-8B (Llama 3.1 8B, Gemma 2 9B) | 14-34B (Phi-4, CodeLlama 34B) | 70B+ (Llama 3.1 70B, Qwen 72B) |
Apple Silicon ได้เปรียบ!
Mac ที่ใช้ชิป M1, M2, M3, M4 ได้เปรียบมากในการรัน Ollama เพราะ Unified Memory ทำให้ CPU และ GPU ใช้ RAM ร่วมกัน — MacBook Pro M3 Pro ที่มี RAM 18 GB สามารถรัน Model 14B ได้อย่างลื่นไหล ในขณะที่ PC ที่มี RAM 16 GB อาจต้องการ GPU แยก
ติดตั้งบน macOS
macOS เป็น Platform ที่ Ollama รองรับตั้งแต่แรกและทำงานได้ดีที่สุด โดยเฉพาะบน Apple Silicon:
วิธีที่ 1: ดาวน์โหลดจากเว็บ (แนะนำ)
- ไปที่ ollama.com แล้วกดปุ่ม "Download for macOS"
- เปิดไฟล์
Ollama-darwin.zipที่ดาวน์โหลดมา - ลาก Ollama.app ไปไว้ใน Applications
- เปิด Ollama.app — จะเห็นไอคอน Llama ขึ้นที่ Menu Bar (มุมบนขวา)
- เปิด Terminal แล้วพิมพ์
ollama run llama3.1
วิธีที่ 2: ผ่าน Homebrew
สำหรับ Developer ที่ใช้ Homebrew อยู่แล้ว:
brew install ollama
ollama serve
ติดตั้งบน Windows
Ollama รองรับ Windows 10 ขึ้นไป (64-bit) โดยรองรับทั้ง NVIDIA GPU, AMD GPU (Radeon RX 6000+) และ CPU-only:
- ไปที่ ollama.com แล้วกดปุ่ม "Download for Windows"
- รันไฟล์
OllamaSetup.exe - ทำตามขั้นตอนการติดตั้ง (กด Next → Install → Finish)
- Ollama จะรันเป็น Background Service อัตโนมัติ — ดูไอคอนที่ System Tray
- เปิด PowerShell หรือ Command Prompt แล้วพิมพ์
ollama run llama3.1
Windows: ข้อควรระวัง
- ต้องเป็น 64-bit เท่านั้น (Windows 32-bit ไม่รองรับ)
- ถ้าใช้ NVIDIA GPU ต้องอัพเดท Driver ให้เป็นเวอร์ชัน 452.39 ขึ้นไป
- Windows Defender อาจแจ้งเตือนตอนดาวน์โหลด — กด "More info" → "Run anyway" ได้เลย (Ollama เป็น Open-source ที่ปลอดภัย)
- หาก Firewall องค์กร บล็อก ให้เปิด Port 11434 (Ollama API)
ติดตั้งบน Linux
Linux เป็น Platform ที่เหมาะที่สุดสำหรับการตั้ง Ollama Server ขององค์กร เพราะเสถียรและใช้ทรัพยากรน้อย:
วิธีที่ 1: Script อัตโนมัติ (แนะนำ)
curl -fsSL https://ollama.com/install.sh | sh
Script นี้จะดาวน์โหลด Ollama, ติดตั้ง, สร้าง systemd service และเริ่มต้น Ollama Server อัตโนมัติ รองรับ Ubuntu, Debian, Fedora, CentOS, RHEL, Arch Linux และอื่นๆ
วิธีที่ 2: ดาวน์โหลด Binary เอง
# ดาวน์โหลด Binary
curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama
chmod +x /usr/local/bin/ollama
# เริ่ม Server
ollama serve
วิธีที่ 3: Docker
สำหรับองค์กรที่ใช้ Docker อยู่แล้ว — วิธีนี้เหมาะกับการ จัดการ Infrastructure ระดับองค์กร:
# CPU only
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# NVIDIA GPU
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# รัน Model
docker exec -it ollama ollama run llama3.1
รัน AI Model ตัวแรก
หลังติดตั้งเสร็จ ไม่ว่าจะ OS ไหน ขั้นตอนถัดไปเหมือนกันหมด — เปิด Terminal แล้วพิมพ์:
ollama run llama3.1
ครั้งแรก Ollama จะดาวน์โหลด Model (~4.7 GB สำหรับ Llama 3.1 8B) อาจใช้เวลา 2-10 นาที ขึ้นอยู่กับความเร็วอินเทอร์เน็ต หลังจากดาวน์โหลดเสร็จ คุณจะเห็น prompt ให้พิมพ์คำถาม:
>>> สวัสดีครับ คุณคือ AI อะไร?
สวัสดีครับ! ผมเป็น Llama 3.1 ซึ่งเป็น Large Language Model ที่พัฒนาโดย Meta
ผมสามารถช่วยตอบคำถาม เขียนบทความ แปลภาษา และอื่นๆ ได้ครับ
มีอะไรให้ช่วยไหมครับ?
เสร็จแล้ว! คุณมี AI Chatbot ส่วนตัวบนเครื่องตัวเองแล้ว — ข้อมูลทุกอย่างที่คุณพิมพ์จะอยู่ในเครื่อง ไม่ส่งออกไปไหน กด /bye เพื่อออก หรือ Ctrl+D
คำสั่งพื้นฐานที่ต้องรู้
หลังติดตั้ง Ollama แล้ว นี่คือคำสั่งที่จะใช้บ่อยที่สุด:
| คำสั่ง | ทำอะไร | ตัวอย่าง |
|---|---|---|
ollama run <model> |
รัน Model (ดาวน์โหลดอัตโนมัติถ้ายังไม่มี) | ollama run llama3.1 |
ollama pull <model> |
ดาวน์โหลด Model ไว้ก่อน (ยังไม่รัน) | ollama pull qwen2.5:72b |
ollama list |
ดูรายชื่อ Model ที่ดาวน์โหลดไว้แล้ว | ollama list |
ollama rm <model> |
ลบ Model ออกจากเครื่อง | ollama rm mistral |
ollama show <model> |
ดูข้อมูลของ Model (ขนาด, พารามิเตอร์) | ollama show llama3.1 |
ollama ps |
ดู Model ที่กำลังรันอยู่ | ollama ps |
ollama serve |
เริ่ม Ollama Server (ปกติรันอัตโนมัติ) | ollama serve |
ollama cp <src> <dst> |
Copy Model เพื่อสร้าง Model ใหม่จากของเดิม | ollama cp llama3.1 my-assistant |
ทดสอบ — รัน Model หลายตัวเปรียบเทียบ
หลังติดตั้งเสร็จ ลองรัน Model หลายตัวเปรียบเทียบกันดู — แต่ละตัวมีจุดแข็งต่างกัน:
# Model รอบด้าน (จาก Meta)
ollama run llama3.1
# Model ภาษาเอเชียดี (จาก Alibaba)
ollama run qwen2.5
# Model Reasoning - คิดก่อนตอบ (จาก DeepSeek)
ollama run deepseek-r1:8b
# Model เขียนโค้ด (จาก Alibaba)
ollama run qwen2.5-coder
# Model จาก Google — เร็วมาก
ollama run gemma2
# Model อ่านรูปภาพได้
ollama run llava
ลองถามคำถามเดียวกันกับหลาย Model แล้วเปรียบเทียบคำตอบ — คุณจะเห็นว่าแต่ละตัวมีสไตล์การตอบต่างกัน บาง Model เก่งภาษาไทย บางตัวเก่งเขียนโค้ด สำหรับรายละเอียดเปรียบเทียบ Model ต่างๆ ดูได้ใน EP.1 ตาราง Model ยอดนิยม
ติดตั้ง GUI — Open WebUI (ไม่ต้องใช้ Terminal)
สำหรับคนที่ไม่อยากพิมพ์คำสั่งใน Terminal สามารถติดตั้ง Open WebUI — หน้าเว็บสวยๆ คล้าย ChatGPT ที่เชื่อมกับ Ollama ได้ทันที:
# ติดตั้ง Open WebUI ด้วย Docker (ต้องมี Docker ก่อน)
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
เปิดเบราว์เซอร์ไปที่ http://localhost:3000 — สร้างบัญชีผู้ดูแลระบบ เลือก Model ที่ดาวน์โหลดไว้ แล้วเริ่มใช้งานได้เลย! Open WebUI เหมาะมากสำหรับ องค์กรที่ต้องการให้พนักงานทุกคนใช้ AI โดยไม่ต้องเปิด Terminal — แค่เปิดเว็บแล้วพิมพ์เหมือนใช้ ChatGPT
แก้ปัญหาที่พบบ่อย
| ปัญหา | สาเหตุ | วิธีแก้ |
|---|---|---|
| "Error: model requires more memory" | RAM ไม่พอสำหรับ Model ที่เลือก | ใช้ Model ขนาดเล็กลง เช่น เปลี่ยนจาก 70B เป็น 8B หรือใช้ Quantized version ollama run llama3.1:8b-q4_0 |
| "Error: listen tcp 127.0.0.1:11434: bind: address already in use" | Ollama รันอยู่แล้ว (อาจรัน Background) | ปิด Ollama ที่รันอยู่ก่อน: pkill ollama (Linux/macOS) หรือปิดจาก System Tray (Windows) |
| GPU ไม่ถูกใช้ (ช้ามาก) | Driver ไม่อัพเดท หรือ Ollama ตรวจ GPU ไม่เจอ | อัพเดท NVIDIA Driver เป็นเวอร์ชันล่าสุด ตรวจสอบด้วย nvidia-smi แล้ว restart Ollama |
| ตอบภาษาไทยไม่ได้ / ตอบมั่ว | Model บางตัวไม่เก่งภาษาไทย | เปลี่ยนไปใช้ qwen2.5 หรือ llama3.1:70b ที่ภาษาไทยดีกว่า |
| ดาวน์โหลด Model ช้า / หลุด | เน็ตช้าหรือไม่เสถียร | รัน ollama pull <model> ใหม่ — จะดาวน์โหลดต่อจากที่ค้าง (resume) |
| เข้าจากเครื่องอื่นไม่ได้ (Server) | Ollama ฟัง localhost เท่านั้น | ตั้ง environment variable: OLLAMA_HOST=0.0.0.0 ollama serve |
| พื้นที่เต็ม | ดาวน์โหลด Model หลายตัว | ลบ Model ที่ไม่ใช้: ollama rm <model> ดูรายชื่อด้วย ollama list |
สำหรับองค์กร — ตั้ง Ollama Server ให้ทุกคนใช้
ถ้าต้องการให้พนักงานทั้งองค์กรใช้ Ollama ร่วมกัน ไม่ต้องติดตั้งทุกเครื่อง — แค่ตั้ง เซิร์ฟเวอร์ 1 เครื่อง แล้วให้ทุกคนเข้าผ่าน Open WebUI:
# 1. ติดตั้ง Ollama บนเซิร์ฟเวอร์ Linux
curl -fsSL https://ollama.com/install.sh | sh
# 2. ตั้งค่าให้ฟังทุก IP (ไม่ใช่แค่ localhost)
sudo systemctl edit ollama
# เพิ่มบรรทัดนี้:
# [Service]
# Environment="OLLAMA_HOST=0.0.0.0"
# 3. Restart Ollama
sudo systemctl restart ollama
# 4. ดาวน์โหลด Model ที่ต้องการ
ollama pull llama3.1
ollama pull qwen2.5
ollama pull deepseek-r1:8b
# 5. ติดตั้ง Open WebUI ด้วย Docker
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
เสร็จแล้วบอกพนักงานเปิด http://<server-ip>:3000 ในเบราว์เซอร์ — ทุกคนจะได้ AI Chatbot ที่หน้าตาคล้าย ChatGPT ใช้ได้ทันที ข้อมูลทุกอย่างอยู่ภายในเครือข่ายองค์กร ซึ่งสอดคล้องกับ การปฏิบัติตาม PDPA และนโยบาย ความปลอดภัยข้อมูล ขององค์กร
Saeree ERP + Ollama Server:
องค์กรที่ใช้ Saeree ERP สามารถตั้ง Ollama Server ไว้ในเครือข่ายเดียวกัน เพื่อใช้ AI วิเคราะห์ข้อมูลจากระบบ ERP ได้โดยไม่ต้องส่งข้อมูลออกนอก — สนใจ ปรึกษาทีมงานฟรี
Ollama Series — อ่านต่อ
Ollama Series — 6 ตอนครบจบ Local AI:
- EP.1: Ollama คืออะไร? — รัน AI บนเครื่องตัวเอง ทำไมองค์กรต้องสนใจ
- EP.2: ติดตั้ง Ollama ทุก OS — macOS / Windows / Linux พร้อมรัน AI ตัวแรกใน 5 นาที (บทความนี้)
- EP.3: ใช้งาน Ollama จริงจัง — เลือก Model, เขียน Prompt และสร้าง Modelfile
- EP.4: Ollama + RAG — สร้าง AI ที่ตอบจากเอกสารองค์กร
- EP.5: Ollama API — เชื่อมต่อ AI กับแอปและระบบขององค์กร
- EP.6: Self-Host AI อย่างปลอดภัย — Security & Best Practices
"ติดตั้ง Ollama ใช้เวลาแค่ 5 นาที แต่สิ่งที่คุณได้คือ AI ส่วนตัวที่ทำงานได้ตลอด 24 ชั่วโมง โดยไม่ต้องจ่ายค่าสมาชิกรายเดือน"
- ทีมงาน Saeree ERP
