- 3
- เมษายน
Ollama Series EP.3 — หลังจาก EP.2 ที่เราติดตั้ง Ollama และรัน Model แรกสำเร็จแล้ว ตอนนี้ถึงเวลาใช้งานจริงจัง! บทความนี้จะพาคุณเรียนรู้วิธีเลือก Model ให้เหมาะกับงาน เขียน System Prompt ที่ดี สร้าง Modelfile เพื่อทำ Custom AI ของตัวเอง และใช้ GUI สวยๆ อย่าง Open WebUI แทนการพิมพ์ใน Terminal
สรุปสั้น — EP.3 ครอบคลุมอะไร?
- เลือก Model ให้ถูกกับงาน — Chat, เขียนโค้ด, Reasoning, ภาษาไทย, อ่านรูป
- System Prompt — กำหนดบทบาทให้ AI ตอบตรงจุด
- Modelfile — สร้าง Custom Model ของตัวเอง (เหมือน Dockerfile)
- ปรับ Parameters — Temperature, Top-K, Top-P, Context Window
- Multi-modal — ใช้ Model ที่อ่านรูปภาพได้
- GUI — Open WebUI, Chatbox, Enchanted สำหรับคนไม่ชอบ Terminal
เลือก Model ให้เหมาะกับงาน
Ollama รองรับ Model มากกว่า 100 ตัว แต่ไม่จำเป็นต้องลองทุกตัว — เลือกให้ถูกกับงานสำคัญกว่า นี่คือตารางแนะนำตามประเภทงาน:
| ประเภทงาน | Model แนะนำ | ขนาด | ทำไมถึงเหมาะ |
|---|---|---|---|
| Chat ทั่วไป / ภาษาไทย | qwen2.5 |
7B / 72B | ภาษาเอเชียดีที่สุดในกลุ่ม Open-source |
| รอบด้าน | llama3.1 |
8B / 70B | จาก Meta, เก่งรอบด้าน Benchmark สูง |
| เขียนโค้ด | qwen2.5-coder |
7B / 32B | เก่งโค้ดมาก รองรับ 80+ ภาษา |
| Reasoning (คิดซับซ้อน) | deepseek-r1 |
8B / 70B | "คิดก่อนตอบ" แสดง Thinking Process |
| อ่านรูปภาพ | llama3.2-vision |
11B / 90B | อ่านรูป วิเคราะห์กราฟ อ่านใบเสร็จ |
| เร็วมาก (ตอบทันที) | gemma2:2b |
2B | เล็กสุด เร็วสุด เหมาะสำหรับงานง่ายๆ |
| สรุปเอกสาร | mistral |
7B | จากฝรั่งเศส, สรุปตรงจุด กระชับ |
| วิเคราะห์ข้อมูล / คณิตศาสตร์ | phi4 |
14B | จาก Microsoft, Reasoning + Math ดีมาก |
ยังไม่แน่ใจ? เริ่มจาก 2 ตัวนี้:
ollama run qwen2.5— ภาษาไทยดี เก่งรอบด้าน (RAM 8 GB พอ)ollama run qwen2.5-coder— เขียนโค้ดเก่งมาก (RAM 8 GB พอ)
System Prompt — กำหนดบทบาทให้ AI
System Prompt คือ "คำสั่งเบื้องหลัง" ที่บอก AI ว่าต้องทำตัวเป็นใคร ตอบแบบไหน ไม่ตอบอะไร — เหมือนการ Brief พนักงานใหม่ก่อนเริ่มงาน ถ้าไม่ตั้ง System Prompt AI จะตอบแบบกว้างๆ ไม่ตรงจุด
ใน Ollama คุณสามารถใส่ System Prompt ได้ทั้งตอนรันและใน Modelfile:
วิธีที่ 1: ใส่ตอนรัน (ชั่วคราว)
ollama run llama3.1 --system "คุณเป็นผู้เชี่ยวชาญด้านระบบ ERP สำหรับองค์กรไทย ตอบเป็นภาษาไทย กระชับ ใช้ตัวอย่างจริง"
วิธีที่ 2: ใส่ใน Modelfile (ถาวร)
วิธีนี้ดีกว่าเพราะ ไม่ต้องพิมพ์ซ้ำทุกครั้ง — จะอธิบายในหัวข้อถัดไป
ตัวอย่าง System Prompt ที่ดี
| Use Case | System Prompt |
|---|---|
| ผู้ช่วย ERP | "คุณเป็นผู้เชี่ยวชาญระบบ ERP ตอบเป็นภาษาไทย อธิบายขั้นตอนเป็นข้อๆ ถ้าไม่แน่ใจให้บอกตรงๆ ว่าไม่ทราบ" |
| ช่วยเขียนโค้ด | "You are a senior developer. Write clean, well-commented code. Always explain your approach before writing code. Use TypeScript by default." |
| สรุปเอกสาร | "สรุปเนื้อหาที่ได้รับเป็นภาษาไทย ไม่เกิน 5 bullet points จับประเด็นหลักเท่านั้น ไม่ต้องเพิ่มความเห็น" |
| ตรวจ ผังบัญชี | "คุณเป็นนักบัญชีอาวุโส ตรวจสอบผังบัญชีที่ได้รับ ชี้จุดที่ผิดปกติหรือไม่ตรงมาตรฐาน TFRS พร้อมเสนอแก้ไข" |
| แปลภาษา | "Translate the given text to Thai. Keep technical terms in English. Maintain the original tone and formatting." |
Modelfile — สร้าง Custom Model ของตัวเอง
Modelfile เป็นเหมือน Dockerfile สำหรับ AI — ไฟล์ข้อความที่กำหนดว่า Model จะทำงานอย่างไร ใช้ Base Model อะไร System Prompt คืออะไร Parameters เป็นเท่าไหร่ แล้ว build เป็น Custom Model ที่พร้อมใช้
ตัวอย่าง: สร้าง AI ผู้ช่วย ERP
# ไฟล์: erp-assistant.modelfile
FROM qwen2.5
PARAMETER temperature 0.3
PARAMETER top_p 0.9
PARAMETER num_ctx 8192
SYSTEM """
คุณชื่อ "เสรี" เป็น AI ผู้ช่วยด้านระบบ ERP ขององค์กร
- ตอบเป็นภาษาไทยเสมอ ยกเว้นคำศัพท์เทคนิค
- อธิบายขั้นตอนเป็นข้อๆ ชัดเจน
- ถ้าเกี่ยวกับงบการเงินหรือบัญชี ให้อ้างอิงมาตรฐาน TFRS
- ถ้าไม่แน่ใจ ให้บอกตรงๆ ว่า "ไม่ทราบ ควรสอบถามผู้เชี่ยวชาญ"
- ห้ามแต่งตัวเลขหรือข้อมูลที่ไม่มีอยู่จริง
"""
Build และรัน:
# Build Custom Model
ollama create erp-assistant -f erp-assistant.modelfile
# รัน
ollama run erp-assistant
# ทดสอบ
>>> ขั้นตอนการปิดงบประจำเดือนมีอะไรบ้าง?
ตัวอย่างอื่นๆ
# AI ช่วยเขียนโค้ด
FROM qwen2.5-coder
PARAMETER temperature 0.1
SYSTEM "You are a senior full-stack developer. Write clean code with comments. Prefer TypeScript, Python, and PostgreSQL."
# AI สรุปเอกสาร (เร็ว)
FROM gemma2:2b
PARAMETER temperature 0.2
PARAMETER num_ctx 4096
SYSTEM "สรุปเนื้อหาเป็นภาษาไทย ไม่เกิน 5 ข้อ กระชับ ตรงจุด"
# AI วิเคราะห์ความเสี่ยง
FROM phi4
PARAMETER temperature 0.4
SYSTEM "คุณเป็นผู้เชี่ยวชาญด้านการบริหารความเสี่ยงองค์กร วิเคราะห์ข้อมูลที่ได้รับ ระบุความเสี่ยง ระดับความรุนแรง และข้อเสนอแนะ"
Parameters ที่ต้องรู้
Parameters ควบคุมว่า AI จะ "ตอบแบบไหน" — ตอบแบบสร้างสรรค์หรือแม่นยำ ตอบยาวหรือสั้น:
| Parameter | ค่า | ผล | แนะนำ |
|---|---|---|---|
| temperature | 0.0 - 2.0 | ต่ำ = แม่นยำ ตอบซ้ำๆ / สูง = สร้างสรรค์ หลากหลาย | โค้ด/บัญชี: 0.1-0.3, Chat: 0.7, เขียนบทความ: 0.8-1.0 |
| top_p | 0.0 - 1.0 | จำกัดคำตอบให้เลือกจากคำที่น่าจะเป็นไปได้มากที่สุด | 0.9 (ค่าเริ่มต้น ใช้ได้ดีทุกงาน) |
| top_k | 1 - 100 | จำกัดจำนวนคำที่ AI เลือกในแต่ละขั้น | 40 (ค่าเริ่มต้น) |
| num_ctx | 2048 - 131072 | Context Window — จำนวนข้อความที่ AI จำได้ในบทสนทนา | 4096 (ค่าเริ่มต้น), 8192-16384 สำหรับเอกสารยาว |
| repeat_penalty | 1.0 - 2.0 | ป้องกัน AI พูดซ้ำๆ | 1.1 (เพิ่มเล็กน้อยถ้า AI พูดวนซ้ำ) |
Multi-modal — ให้ AI อ่านรูปภาพ
บาง Model สามารถ "เห็น" รูปภาพได้ — เช่น อ่านข้อมูลจากใบเสร็จ วิเคราะห์กราฟ หรืออ่าน Screenshot ของระบบ ERP:
# รัน Model ที่อ่านรูปได้
ollama run llama3.2-vision
# ส่งรูปให้ AI (ลากไฟล์ใส่ Terminal หรือพิมพ์ path)
>>> อ่านข้อมูลจากใบเสร็จนี้ /Users/me/receipt.jpg
>>> วิเคราะห์กราฟยอดขายนี้ /Users/me/sales-chart.png
Model ที่อ่านรูปได้:
llama3.2-vision(11B/90B) — จาก Meta, ดีที่สุดในกลุ่ม Open-sourcellava(7B/13B) — เบาและเร็ว เหมาะกับ ตรวจสอบเอกสารพัสดุmoondream(1.8B) — เล็กมาก รันได้แม้เครื่องไม่แรง
GUI — ไม่ต้องใช้ Terminal ก็ใช้ได้
สำหรับคนที่ไม่ชอบ Command Line หรือต้องการให้ พนักงานทั้งองค์กรใช้ AI ผ่านเว็บ มีหลาย GUI ที่เชื่อมกับ Ollama ได้:
| GUI | ประเภท | จุดเด่น | เหมาะกับ |
|---|---|---|---|
| Open WebUI | Web App (Docker) | หน้าตาคล้าย ChatGPT, จัดการ User ได้, รองรับ RAG | องค์กร, Server ส่วนกลาง |
| Chatbox | Desktop App | ติดตั้งง่าย สลับ Model ได้เร็ว บันทึกประวัติ | ใช้คนเดียว, ใช้ส่วนตัว |
| Enchanted | macOS / iOS App | Native Apple UI สวยงาม รองรับ Siri Shortcuts | ผู้ใช้ Apple ecosystem |
| Continue.dev | VS Code Extension | AI Coding Assistant ใน VS Code เชื่อม Ollama | Developer ที่ใช้ VS Code |
เคล็ดลับ — ใช้ Ollama ให้ได้ผลดีที่สุด
- เลือก Model ขนาดพอดี: 7-8B สำหรับงานทั่วไป, 14B ถ้าต้องการฉลาดขึ้น, 70B สำหรับงานยาก — อย่าใช้ Model ใหญ่เกินจำเป็น จะช้าโดยเปล่า
- ตั้ง temperature ให้ถูก: งานที่ต้องการความแม่นยำ (โค้ด, บัญชี, ข้อมูลตัวเลข) ใช้ 0.1-0.3 / งานสร้างสรรค์ใช้ 0.7-1.0
- ใช้ Modelfile: สร้าง Custom Model สำหรับงานที่ทำบ่อย — ประหยัดเวลาไม่ต้องพิมพ์ System Prompt ซ้ำ
- เพิ่ม num_ctx ถ้าต้องอ่านเอกสารยาว: ค่าเริ่มต้น 4096 อาจไม่พอสำหรับเอกสาร 10+ หน้า ตั้ง 8192 หรือ 16384
- ใช้ GUI สำหรับองค์กร: Open WebUI เหมาะมากสำหรับให้พนักงานทุกคนใช้ AI — ไม่ต้องสอนใช้ Terminal
Saeree ERP + Custom AI Model:
ด้วย Modelfile คุณสามารถสร้าง AI ที่เข้าใจธุรกิจของคุณ — ตั้ง System Prompt ให้รู้จักระเบียบองค์กร ผังบัญชี และขั้นตอนการทำงาน แล้วใช้ร่วมกับ Ollama เพื่อให้ AI ตอบคำถามพนักงานได้แม่นยำ สนใจ ปรึกษาทีมงานฟรี
Ollama Series — อ่านต่อ
Ollama Series — 6 ตอนครบจบ Local AI:
- EP.1: Ollama คืออะไร? — รัน AI บนเครื่องตัวเอง ทำไมองค์กรต้องสนใจ
- EP.2: ติดตั้ง Ollama ทุก OS — macOS / Windows / Linux
- EP.3: ใช้งาน Ollama จริงจัง — เลือก Model, เขียน Prompt และสร้าง Modelfile (บทความนี้)
- EP.4: Ollama + RAG — สร้าง AI ที่ตอบจากเอกสารองค์กร
- EP.5: Ollama API — เชื่อมต่อ AI กับแอปและระบบขององค์กร
- EP.6: Self-Host AI อย่างปลอดภัย — Security & Best Practices
"AI ที่ดีไม่ใช่ AI ที่ฉลาดที่สุด แต่เป็น AI ที่ถูกตั้งค่าให้ตรงกับงานที่ต้องทำ — Modelfile คือกุญแจสำคัญ"
- ทีมงาน Saeree ERP



